IBM Watson首席技术官Rob High针对机器学习中的偏见和其他挑战做出了回应
2018年03月01日 由 nanan 发表
611142
0
对于IBM Watson 首席技术官 Rob High来说,现在机器学习中最大的技术挑战是如何用更少的数据来训练模型。“这是一个挑战,这是一个目标,我们当然有理由相信这是可能的,”Rob High在巴塞罗那举行的年度移动世界大会(Mobile World Congress)上接受采访时表示。
在这一点上,他在整个行业中回应了类似的声明。例如,谷歌的AI首席执行官John Giannandrea最近也将此列为,这家搜索巨头机器学习团队正在努力应对的主要挑战之一。通常情况下,机器学习模型需要接受大量数据的训练,以确保它们的准确性,但对于许多问题,大数据集根本不存在。
然而,Rob High认为这是一个可解决的问题。为什么?“因为人类可以做到。我们有一个数据点,”他说。有一点需要记住的是,即使当我们看到人类正在做的事情时,你也必须意识到,它不只是在那个时刻告诉我们人类是如何学习的。我们将所有这些背景都放到了明面上。对于High而言,正是这种背景下,可以用更少的数据创造出可用的训练模型,以及最近在转换学习方面的进步,也就是说,能够接受一个经过训练过的模型,然后使用这些数据来启动另一个模型的训练,而这个模型中可能存在较少的数据。
然而,人工智能所面临的挑战——尤其是会话AI所面临的挑战超越了这一点。“另一方面,我们确实在试图了解如何以更自然的方式与人类进行互动,并对他们的思维产生影响,”High说。“人类不仅受到他们交流的语言的影响,还受到我们在发声、变调、语调、节奏、情绪、面部表情、手臂和手势等方面的影响。”High并不认为人工智能需要以某种拟人化的形式来模仿它们,但也可能以某种其他形式,比如设备上的视觉线索。
与此同时,大多数人工智能系统还需要更好地理解问题的意图,以及它是如何与个人之前关于某件事的问题以及他们当前的精神状态和个性相关联的。
但这又引出了另一个问题。许多现在正在使用的机器学习模型,由于他们接受训练的数据,天生就有偏见。这通常意味着,如果你是一个白人男性,那么一个特定的模型会对你有很大的帮助,比如,黑人女性就会失败。“首先,我认为这个等式有两个方面。其中一个是,可能存在对这些数据的总体偏差,我们必须对此存在敏感性,并强迫自己考虑扩大其代表的人们的文化和人口方面的数据。但另一方面,你实际上希望在这些类型的系统中出现偏向于个人的偏见。”
举个例子,IBM对斯隆凯特琳癌症中心的工作做得很好。IBM和医院根据一些最好的癌症外科医生的工作训练了一个模型。但斯隆·凯特灵(Sloan Kettering)有一种关于如何做药的特殊哲学。因此,这种哲学体现在他们的偏见中。这是他们的制度偏见,这是他们的品牌。任何将在斯隆凯特林以外使用的系统都需要向前推进同样的理念。”
“确保这些事情以正确的方式存在是偏见的一个重要组成部分,是确保你有合适的人选,并且这些人是更广泛的文化的代表。”这是High定期讨论的一个论点,现在IBM的客户也经常提到,这是一个行业中的积极迹象,这个行业仍然经常忽略这些话题。