当面对科技巨头时,自愿承诺负责任地构建人工智能是个笑话。谷歌和亚马逊的联合打击工会行动、Meta的剑桥分析丑闻以及微软和OpenAI的版权违规只是冰山一角,这种种现象都表明不应期望自愿承诺会产生更好的结果。
这些人工智能模型的问题让许多研究人员夜不能寐。瑞典哲学家Nick Bostrom就是这样思考的人之一:“我们如何确保高度认知能力的系统能够按照设计者的意图行动?”。Bostrom在他的著作《超级智能》中更深入地探讨了这个未解决的技术问题,以引起更多关注。
一个臭名昭著的错位例子是:当谷歌的算法在数百万张标记图像的数据集上进行训练时,它能够将照片按照“毕业”等细致的类别进行分类,但却将有色人种分类为“大猩猩”。但为什么尽管公司一再“努力”构建更好的算法和模型,这些问题却仍然存在呢?
Hugging Face的政策总监Irene Solaiman认为,对齐问题的部分困难在于对价值对齐领域的共识缺乏。“通常来说,一个定义是按照开发者的意图,但很多受影响的人,却没有在开发团队中得到反映。”她补充道。
Solaiman是GPT-2和GPT-3团队的一员,她是一个包容性价值对齐的坚定拥护者。例如,她说:“我认为有害的刻板印象和偏见是对齐工作的一部分。研究人员的数量差异取决于我们如何看待技术和社会科学家以及他们与模型的开发和发布的关系。”
最新的人工智能报告还指出,在人工智能领域,积极致力于防止这些模型出现过大错位的研究人员数量不足。
据报告称,Google DeepMind拥有最大且最为成熟的AI对齐团队,由联合创始人Shane Legg领导,团队成员共有40人。相比之下,OpenAI拥有一个由11名成员组成的团队,而其竞争对手Anthropic则有10名成员。
OpenAI最近成立了一个名为“Preparedness”的团队,评估、评价和审查AI模型,以保护免受其所描述的“灾难性风险”的侵害。几个月前,它还宣布了一个超级对齐项目。该想法归结为,“我们观察到先进的AI是危险的,所以我们构建一个先进的AI来解决这个问题”。Olle Haggstrom教授是呼吁暂停建造比GPT-4更先进的AI的签署者之一,他称之为“黑暗中的危险飞跃”。
“明天的AI今天就存在风险”,他强调,引用了《自然》杂志的文章。在当前的AI讨论中,人们仍然存在一个遗憾的分歧,即那些关注即时AI风险的人和那些考虑长期危险的人之间的分歧。然而,随着人们越来越意识到最危险的突破可能并非几十年之后才发生,这两个派别应该联合起来,Haggstrom建议说。“这些AI伦理学家中的任何一个群体都没有得到他们想要的东西,”他在指出对构建对齐AI的关注不足时说。
尽管DeepMind从一开始就提倡更安全、更一致的模型,但它的合作伙伴谷歌有其他打算。这家技术巨头最近承诺向负责任的AI基金投入2000万美元。根据2022年的利润,这家搜索巨头的利润达到了600亿美元,这意味着他们利润的0.0003%用于构建更好的模型。
谷歌一直以来都被冠以“大胆而负责任”的标签,自2023年开始,其高管一直不停地谈论生成式人工智能。这个新口号在在谷歌的各种会议上被一再重复。
谷歌并不是唯一这样做的企业。对于大多数大型科技公司来说,“负责任”的目的已经成为一种保持媒体和社区关注的策略。在背后,他们的花招继续进行,这表明,类似谷歌和OpenAI的组织并不真正关心道德而更关注利润。