基于可能包含偏见的大量信息构建的人工智能产生了自动歧视的真正风险,但我们能否重新教育这些机器呢?
对于一些人来说,这个问题极其紧迫。在这个ChatGPT时代,人工智能将越来越多地为医疗保健提供者、银行贷方或律师做出决策,所使用的素材都来自互联网。
因此,人工智能的基础智能只与其来源世界一样好,既可能充满机智、智慧和实用性,也可能充满仇恨、偏见和咆哮。
“这很危险,因为人们正在接受并采用人工智能软件,并真正依赖它,”法律咨询公司德克萨斯机会与正义孵化器主管乔舒亚·韦弗说。
“我们可能会陷入这样一个反馈循环:我们自己和文化中的偏见影响了人工智能的偏见,并成为一种强化循环,”他说。
确保技术更准确地反映人类多样性不仅仅是政治选择。
人工智能的其他用途,如面部识别,已经让一些公司因歧视问题而陷入困境。
美国连锁药店来德爱就因此遭到联邦贸易委员会的调查,其店内摄像头错误地将消费者,特别是女性和有色人种消费者标记为小偷。
专家担心,ChatGPT风格的生成式人工智能可以在几秒钟内创造出类似人类水平的推理,这也为出错提供了新的机会。
人工智能巨头们深知这个问题,担心他们的模型可能会误入歧途,或者在面向全球用户群体时过于反映西方社会。
谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)表示:“我们收到了来自印度尼西亚或美国的查询请求”,解释了为什么对医生或律师的图像请求会努力反映种族多样性。
但这些考虑可能会达到荒谬的程度,并导致对过度政治正确的愤怒指责。
当谷歌的Gemini图像生成器生成了一张二战期间德国士兵的图像,荒谬地包括了一个黑人和一个亚洲女人时,就发生了这样的事情。
但Hugging Face的一位研究科学家萨莎·卢奇奥尼(Sasha Luccioni)警告说,“认为有技术可以解决偏见已经是走上了错误的道路。”
她表示,生成式人工智能本质上是关于输出是否“符合用户的预期”,这在很大程度上是主观的。
Alembic Technologies的产品负责人杰登·齐格勒(Jayden Ziegler)警告说,ChatGPT所依赖的庞大模型“无法判断什么是偏见,什么不是偏见,所以它们无法对此采取任何措施”。
至少目前,人类必须确保人工智能生成的内容是恰当的或符合他们的期望。
但鉴于人工智能的热潮,这不是一项容易的任务。
Hugging Face平台上有大约60万个AI或机器学习模型可供选择。
卢奇奥尼说:“每隔几周就会出现一个新模型,我们正在努力评估和记录偏见或不良行为。”
目前正在开发的一种方法叫做算法去秽,它允许工程师剔除内容,同时不破坏整个模型。
但人们对这种方法是否真的有效表示严重怀疑。
Pinecone的首席技术官拉姆·斯里哈尔沙(Ram Sriharsha)表示,另一种方法是“鼓励”模型朝着正确的方向前进,“微调”它,“对正确和错误进行奖励”。
Pinecone是检索增强生成(或RAG)技术的专家,该技术允许模型从固定的可信来源获取信息。
对于德克萨斯机会与正义孵化器的韦弗来说,这些“高尚”的纠正偏见尝试“是我们对未来更好版本的希望和梦想的投射”。
但他说:“偏见也是人性的内在含义,因此也被内置在人工智能中。”