各大AI公司组成小组进行研究,保持对AI的掌控
2023年07月27日 由 Susan 发表
693001
0
全球四家最先进的人工智能公司已经组成一个小组,对日益强大的人工智能进行研究,并建立控制其发展的最佳实践方法,因为公众对该技术的影响越来越担忧,监管审查也在增加。
Anthropic, Google, Microsoft和OpenAI共同成立了Frontier Model Forum,旨在“确保前沿人工智能模型的安全和负责任开发”
近几个月,美国公司推出了越来越强大的AI工具,通过利用现有材料库生成原创的图像、文本或视频内容。这些发展引发了对版权侵权、隐私泄露以及AI最终可能在各种工作岗位上取代人类的担忧。
"创建AI技术的公司有责任确保其安全、可靠,并始终在人类控制之下,"微软副主席兼总裁布拉德·史密斯表示。"该举措是推动责任AI发展、应对挑战以使其造福全人类的重要一步。"
根据创始人的说法,该论坛的成员仅限于那些正在构建“超过目前最先进模型能力的大规模机器学习模型”的少数公司。
这表明其工作将集中于来自更强大人工智能所带来的潜在风险,而不是回答与版权、数据保护和隐私有关的问题,这些问题对于监管机构来说目前更为重要。
美国联邦贸易委员会(FTC)已展开对OpenAI的调查,调查对象是该公司是否从事“不公平或欺诈性”的隐私和数据安全实践,或者通过制造虚假信息对人们造成损害。美国总统乔·拜登已表示,他将采取行政措施促进“负责任创新”。
AI公司的高管则以令人放心的态度回应,并强调他们意识到危险并致力于缓解这些问题。上周,在四家成立新论坛的公司高管承诺在白宫“安全、可靠、透明地开发AI技术”。
华盛顿大学的计算语言学家艾米丽·本德尔(Emily Bender) 对大型语言模型进行了广泛的研究,她表示公司的保证是“试图避免监管;宣称自我调节的能力,而我对此非常怀疑”。将注意力集中在“机器会活过来并接管人类”的恐惧上会分散对“我们实际面临的与数据盗窃、监视和将所有人置于零工经济中有关的问题”的关注。监管需要来自外部。它需要由代表人民的政府制定,以限制这些公司可以做的事情。
Frontier Model Forum将致力于推进安全研究,并为行业和决策者之间提供沟通渠道。
类似的组织之前已经成立过。合作伙伴关系AI(Partnership on AI)是由Google和Microsoft等公司共同创立的,成立于2016年,其成员包括公民社会、学术界和工业界,致力于促进AI的负责任使用。
来源:https://arstechnica.com/ai/2023/07/major-ai-companies-form-group-to-research-keep-control-of-ai/