研究人员揭示:AI算法仍存在不稳定性与局限性

2024年01月12日 由 samoyed 发表 252 0

ChatGPT和其他基于机器学习的解决方案正在激增。但即使是最成功的算法也有局限性。哥本哈根大学的研究人员在数学上证明,除了简单的问题外,不可能为人工智能创建始终稳定的算法。这项研究发布在arXiv预印本服务器上,可能会为如何更好地测试算法提供指导,并提醒我们机器毕竟不具备人类智能。


algorithm-2


机器比医生更准确地解读医学扫描图像,翻译外语,很快就能比人类更安全地驾驶汽车。然而,即使是最好的算法也有弱点。哥本哈根大学计算机科学系的一个研究小组试图揭示它们。


以自动驾驶汽车读取路标为例。如果有人在标志上贴了标签,这不会分散人类司机的注意力。但机器可能很容易被干扰,因为现在的标志与它训练时的标志不同。


该小组负责人 Amir Yehudayoff教授表示:“我们希望算法在某种意义上是稳定的,即如果输入稍微改变,输出将几乎保持不变。现实生活中涉及人类习惯于忽视的各种噪音,而机器可能会感到困惑。”


Yehudayoff说:“我想指出的是,我们还没有直接研究自动化汽车应用程序。尽管如此,这似乎是一个十分复杂的问题,算法无法始终保持稳定。”他补充道,这并不一定意味着与自动化汽车的开发有关的重大后果。“如果算法只在极少数情况下出错,这很可能是可以接受的。但如果它在大量情况下出现错误,那就是坏消息。”


这篇科学文章不能被工业应用于识别其算法中的漏洞。教授解释说,这不是目的。“我们正在开发一种语言来讨论机器学习算法的弱点。这可能会导致制定描述如何测试算法的指导方针。从长远来看,这可能会再次导致开发更好、更稳定的算法。”


Yehudayoff说:“有些公司可能声称已经开发出了一种绝对安全的隐私保护解决方案。首先,我们的方法可能有助于确定该解决方案不可能是绝对安全的。其次,它将能够找出弱点。”


然而,首先也是最重要的是,这篇科学文章有助于理论。特别是数学内容是突破性的,他补充道,


“我们凭直觉理解,当暴露在少量输入噪声中时,稳定的算法应该能像以前一样工作。就像上面有贴纸的路标一样。”但作为理论计算机科学家,我们需要一个明确的定义。我们必须能够用数学的语言来描述这个问题。如果我们要确保算法是稳定的,算法需要能够承受多大的噪声,输出应该与原始输出有多接近?这就是我们提出的答案。”


这篇科学文章引起了理论计算机科学界同事的极大兴趣,但科技行业却没有,至少现在还没有。


Yehudayoff说:“在新的理论发展和应用人员的兴趣之间,总是会出现一些延迟。”“一些理论发展将永远被忽视。”


然而,他认为这种情况不会发生:“机器学习继续快速发展,重要的是要记住,即使是在现实世界中非常成功的解决方案也有局限性。机器有时看起来能够思考,但毕竟不具备人类的智能,这一点需要记住。”


文章来源:https://techxplore.com/news/2024-01-weaknesses-ai.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消