为什么Timnit Gebru希望人工智能巨头从小处着手

2023年09月20日 由 samoyed 发表 229 0

Timnit Gebru曾经相信,从内到外地遏制科技巨头最糟糕的冲动是可能的。


她自己在微软尝试过,2018年,她与人合著了一篇开创性的论文,揭示了包括微软在内的商业面部识别系统在检测黑人女性面部方面有多糟糕。该论文确实促使微软调整了其系统的准确性,但Gebru认为,该公司本可以完全停止开发面部识别技术。


Timnit-Gebru


她试图将这种程度的问责制带到谷歌,2018年秋天,她作为这家搜索巨头道德人工智能团队的首席执行官前往谷歌工作。正是在那里,她与人合著了另一篇论文,概述了大型语言模型的危险——偏见的可能性、培训它们的环境成本、以及构建它们所需的劳动力剥削。谷歌试图迫使Gebru将自己的名字从论文上删除,这场对峙导致Gebru于2020年12月突然公开被公司除名。


正是因为目睹了科技巨头内部创造重大变革的局限性,Gebru成立自己的独立研究小组——分布式人工智能研究所(DAIR)。该研究所由公益非营利组织Code for Science & Society赞助,此后吸引了其他前谷歌员工,包括现任DAIR研究总监的Alex Hanna。自2021年该研究所成立以来,Gebru一直致力于创造一个避风港,让独立的人工智能研究人员能够诚实、公开地审查他们的行业,而不必担心任何万亿美元的公司的底线。在过去的一年里,随着OpenAI、Meta、谷歌和微软等公司对大型语言模型的能力提出了越来越高的要求,Gebru成为了一个独特可信的批评者,他批评了该行业的过度承诺,以及最近人工智能炒作的激增已经造成的伤害。


对Gebru来说,最大的问题之一是,这些公司正试图构建一个非常大的语言模型,而没有考虑到明确的目的。她说:“当你试图构建一个适用于各种场景的模型时,你已经失去了安全性。”“你甚至不能问这个问题:这是用来做什么的?它不应该用来做什么?输入是什么?输出是什么?你没有正确确定它的范围。”


Gebru认为,任何声称适用于所有领域的语言模型,几乎肯定会比一个较小但专门为特定任务或社区构建的语言模型效果差。这方面的一个例子是机器翻译,Gebru说,专门针对特定语言训练的较小模型往往优于声称可以翻译数百种语言的巨大模型,但最终却在非主流语言方面做得很差。Gebru说:“当你了解用户,并以此策划你的数据集时,你就可以构建小数据集。”她最近与他人合著了一篇会议论文,揭示了Meta有关某些Eritrean和Ethiopian语言的机器翻译声明中的漏洞。


正如Gebru所说,“小规模建设”不仅有利于人工智能技术的最终用户,也有利于在世界各地的社区和为社区开发这些工具的公司。这就是炒作背后的危害:Gebru认为,当硅谷的少数几家公司承诺的超出了他们的技术实际能力时,这会使小公司更难竞争。


Gebru说:“我想向人们展示还有另一条路。”

文章来源:https://www.fastcompany.com/90952740/why-timnit-gebru-wants-ai-giants-to-think-small
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消