研究人员正在开发一种方法,将最人性化的特征之一——不确定性,整合到机器学习系统中。
人为错误和不确定性是许多人工智能系统无法掌握的概念,特别是在人类向机器学习模型提供反馈的系统中。其中许多系统被编程为假设人类总是确定和正确的,但现实世界的决策包括偶尔的错误和不确定性。
来自剑桥大学的研究人员,以及艾伦图灵研究所,普林斯顿大学和谷歌DeepMind,一直在试图弥合人类行为和机器学习之间的差距,以便在人类和机器一起工作的人工智能应用程序中可以更充分地解释不确定性。这有助于降低风险并提高这些应用的可信度和可靠性,尤其是在安全至关重要的情况下,例如医疗诊断。
该团队改编了一个众所周知的图像分类数据集,以便人类在标记特定图像时可以提供反馈并表明他们的不确定程度。研究人员发现,使用不确定标签进行训练可以提高这些系统在处理不确定反馈方面的性能,尽管人类也会导致这些混合系统的整体性能下降。
“人机交互”机器学习系统(一种支持人类反馈的人工智能系统)通常被认为是一种有前途的方法,可以在无法依赖自动化模型单独作出决策的环境中降低风险。但如果人类不确定呢?
“不确定性是人类如何推理世界的核心,但许多人工智能模型没有考虑到这一点,”剑桥大学工程系的第一作者Katherine Collins说。“很多开发人员都在努力解决模型的不确定性,但从人的角度解决不确定性的工作却做得较少。”
我们不断根据概率的平衡做出决定,但往往并没有真正考虑到这一点。大多数时候,就像是如果我们向一个看起来很像朋友的人挥手,即使我们认错了人也没有什么坏处。然而,在某些应用中,不确定性会带来安全风险。
“许多人类人工智能系统假设人类总是正确的,但是,事实上人类都会犯错误,”柯林斯说。
“我们需要更好的工具来重新校准这些模型,以便与他们一起工作的人有权在不确定时说出来,”共同作者Matthew Barker说。“虽然机器可以在完全准确的情况下接受训练,但人类往往无法提供这种准确性,机器学习模型也很难应对这种不确定性”
在他们的研究中,研究人员使用了一些基准机器学习数据集:一个用于数字分类,另一个用于对胸部X射线进行分类,另一个用于对鸟类图像进行分类。对于前两个数据集,研究人员模拟了不确定性,但对于鸟类数据集,他们让人类参与者表明他们对他们正在查看的图像的确定程度:例如,一只鸟是红色还是橙色。
这些由人类参与者提供的带注释的“软标签”使研究人员能够确定最终输出是如何改变的。然而,他们发现,当机器被人类取代时,性能会迅速下降。
“我们从几十年的行为研究中知道,人类几乎从来都不是100%确定的,但将其纳入机器学习是一个挑战,”Barker说。“我们正试图在这两个领域之间架起桥梁,以便机器学习可以开始处理人类的不确定性,因为人类是系统的一部分。
研究人员表示,他们的研究结果已经确定了将人类纳入机器学习模型时面临的几个开放挑战。他们正在发布他们的数据集,以便进行进一步的研究,并将不确定性纳入机器学习系统。
“正如我们的一些同事指出的那样,不确定性是一种透明度,这非常重要,” Collins说。“我们需要弄清楚什么时候可以信任一个模型,什么时候可以信任一个人,以及为什么。在某些应用中,我们关注的是概率而不是可能性。特别是随着聊天机器人的兴起,我们需要更好地融入可能性语言的模型,这会带来更自然、更安全的体验。”
Barker说:“在某些方面,这项工作提出的问题比回答的问题更多。但即使人类在不确定性方面可能没有调整得很好,我们仍然可以通过考虑人类行为来提高人类参与的系统的可信度和可靠性”