3个方法减少AI聊天机器人程序中存在的偏见
2018年06月06日 由 浅浅 发表
789814
0
使用自然语言处理的人工智能聊天机器人几乎应用到了所有行业中。一个实际的应用是提供动态的客户支持,使用户能够提出问题并获得高度相关的响应。例如,在医疗保健方面,一位顾客可能会问“我今年体检费是多少?”,另一位顾客可能会问“医生看病要多少钱?”一个训练有素的聊天智能会明白这两个问题都有类似的含义并根据可用数据提供相关的答案。
许多人没有意识到,人工智能动力聊天机器人就像孩子一样:他们通过实例学习。就像早期开发时孩子的大脑一样,人工智能系统的设计目的是处理大量的数据,以形成关于世界的预测并据此采取行动。人工智能解决方案由人类进行培训,并根据经验合成模式。然而,人类社会固有的许多模式是我们不想强化的,例如社会偏见。我们如何设计不仅智能而且平等的机器学习系统?
机器人和其他人工智能解决方案现在可以帮助人类在每个行业中完成数千项任务,偏见可能会限制消费者访问关键信息和资源。在卫生保健领域,消除偏见是至关重要的。我们必须确保所有人,包括少数民族和代表性不足人群中的所有人,都能利用我们创造的工具为他们节省资金,保持健康并在最需要时帮助他们找到护理。
那么,解决方案是什么?基于研究者用IBM Watson四年多的训练经验,你可以考虑以下建议来最大限度地减少人工智能应用程序中的偏见:
1.仔细考虑你的数据策略
当谈到训练时,人工智能工程师可以做出选择。这些决定不仅是技术性的,而且是道德的。如果我们的训练示例不代表我们的用户,那么当我们的应用程序将其应用到现实世界时,我们的系统准确度会很低。
创建包含多种示例的训练集可能听起来很简单,但如果不小心就很容易忽略。你可能需要用自己的方式来查找或创建具有各种人口统计特征的数据集。在某些情况下,我们还希望通过实际使用的数据示例来训练我们的机器人,而不是依赖于削减过的数据集。但是,如果我们的真实用户不能囊括所有人群,我们该怎么办?
我们可以采取自由放任的方式,让自然趋势指导发展,而无需编辑数据。这种方法的好处是可以优化普通用户群的性能。但是,这可能会以牺牲代表性不足的人口为代价,我们不想忽视这一点。例如,如果大多数与聊天机器人交互的用户年龄在65岁以下,机器人就会忽略关于仅适用于65岁以上人群的医疗服务,如骨质疏松症筛查和跌倒预防咨询。如果机器人只接受真正的互动训练,而没有额外的指导,那么它在关于这些服务的问题上可能表现不佳,这会让那些需要这些信息的老年人感到不便。
为了解决这个问题,我们创建合成训练问题或寻找其他数据来源,以了解有关骨质疏松症筛查和跌倒预防咨询的问题。通过数据包括更多的分布和代表性,机器人学习更广泛的主题,而不会遗漏少数用户人群的利益。
2.鼓励一组具有代表性的用户
我们无法完全控制谁与聊天机器人进行交互,但我们可以确保它对所有人群适用,并消除妨碍所有人群平等使用的障碍。
以前面的例子设想,大多数用户都在65岁以下。也许我们也可以添加设计选项(比如更大的文本),这样可以让老年人更容易使用该工具。在设计我们的人工智能解决方案时,我们可能会发现许多其他方法来调整内容,用户体验,市场营销和基本功能,这样聊天机器人将服务其他人员。
然而,即使拥有各种各样的真实用户,公司也可能冒着引入训练和开发团队的无意识偏见的风险。为了尽量减少这种风险,在设计过程中考虑各种各样的观点至关重要。所以我要提出最终建议——
3.创建一个多元化的开发团队
如果一个全面而多样的团队来做决策,那么不太可能在系统中引入新的偏见。但开发团队的多元化仍然是一个挑战,尤其是在人工智能领域。我们如何打破进入该领域的障碍?
我的一些团队成员在数据科学,编程和语言技术方面拥有传统的人工智能背景,但我们团队中一些最关键的成员来自非技术背景。我们愿意相互学习,我们经常发现,我们的每一个观点都为机器人提供了独特的东西。你不必成为机器学习专家,也对人工智能团队很有价值。如果你想成为一名机器学习专家,那么你也可以慢慢学习。
创造一个鼓励进步的环境,并赋予各阶层人士参与发展的能力是很重要的。在竞争激烈的商业世界中,它有时会违背我们所有的自然本能,但事实是共享知识是成功的最快捷的途径,无论是产品还是创造它的人。人工智能是每个人都可以踏入的领域。
IBM设计研究人员EllenKolstø在关于Epic People的文章中指出:“虽然人工智能是关于机器的,但人工智能的构建过程的关注点却在人类身上。”当我们设计人工智能系统时,我们经常做出非常人性化的选择。如果我们的机器人通过实例学习,那么我们有责任树立一个好榜样。通过创建具有代表性的训练集,使开发团队多样化,并使机器人适用于各种背景和人口统计的人员,我们可以减少内在的偏见并培育平等主义的人工智能。