研究显示:人工智能存在与人类相似的信心偏见

2023年11月30日 由 samoyed 发表 279 0

明显的正置信度偏差是人类决策的一个特征,也是一个明显的非理性特征,已经使用人工智能(AI)模型进行了复制和剖析。RIKEN领导的一个团队在《自然通讯》上发表了这一令人不安的结果,揭示了我们膨胀的自信感可能来源于微妙的观察提示。


artificial-intelligenc-84


当我们瞥见某个熟悉的物体时,我们通常能够立即并自信地做出与该熟悉物体匹配的结论,即便证据的平衡并不支持这样高的自信水平。决策与自信水平之间的这种脱节长期以来一直困扰着研究者们,因为它表明虽然我们能够做出高度合理的决策,但我们对决策的自信感可能是相当不合理的。


“在理论和实证数据之间一直存在着一个紧张关系,理论直截了当地假设人类是理性的,而实证数据则清楚地表明,并非总是如此,”理研大脑科学中心的Hakwan Lau指出。


这通常发生在图像不清晰的情况下。从数学上讲,图像的嘈杂程度可以通过称为信噪比的指标来计算,该指标是对照清晰图像的偏差计算得出的。


但事情在这里开始变得奇怪。“如果我使图像变得更加显眼同时更加嘈杂,但保持总体的信噪比不变,我们不知何故会变得更自信,相信我们知道我们在看什么,即使我们并没有看得更清楚,”Lau说。“事实证明,通常被认为是随机的噪音结构实际上很重要”


现在,Lau及其同事使用专门报告置信度的人工智能模型研究了不同类型的噪声对决策置信度的影响。


“人总是想知道一个AI模型在做什么,”Lau说。“但人工智能模型的伟大之处在于,一旦它学会了,我们就可以‘解剖’模型,更好地理解它。”


令人惊讶的是,AI模型表现出了与人类完全相同的自信偏见。正如Lau所指出的,这似乎正是它应该做的事情。


“从某种意义上说,该模型是合理的,因为它从自然图像的噪声结构中学习,这与信号处理模型中假设的标准噪声类型不同。”Lau说。“正是这种自然图像的统计属性的学习导致了这些模型具有这些显而易见的偏见。”

文章来源:https://techxplore.com/news/2023-11-artificial-intelligence-confidence-bias-reveals.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消