牛津大学的研究人员提出了一种新方法,帮助用户判断生成式AI是否可能在“产生幻觉”。当AI系统面对一个它不知道答案的问题时,就可能会发生这种情况,导致它编造出一个错误的答案。
幸运的是,有一些技巧可以帮助我们识别这种情况并在它发生时阻止它。
如何阻止AI产生幻觉
牛津大学团队的一项新研究产生了一个统计模型,该模型可以识别出当向生成式AI聊天机器人提问时,哪些问题最有可能产生错误的答案。
这对于生成式AI模型来说是一个真正的担忧,因为它们交流方式的先进性意味着它们可能会将错误信息当作事实来传递。这一点在ChatGPT在2月份出现错误答案时得到了突显。
随着越来越多的人在日常生活中依赖AI工具来帮助他们完成学业、工作和日常生活,像参与这项研究的AI专家一样,人们正在呼吁更清晰的方法来判断AI何时在编造回答,尤其是当涉及到医疗保健和法律等严肃话题时。
牛津大学的研究人员声称,他们的研究可以区分模型是在给出正确答案还是在编造答案。
“大型语言模型(LLM)非常有能力用许多不同的方式来表达相同的意思,这可能会让人们难以区分模型是确信其答案,还是只是在编造答案,”研究作者塞巴斯蒂安·法夸尔博士(Dr Sebastian Farquhar)在接受《晚旗报》采访时说。“以前的方法无法区分模型是不知道要说什么,还是不知道如何表达它。但我们的新方法克服了这一点。”
然而,当然,还需要做更多的工作来纠正AI模型可能犯的错误。