据报道,Meta解散了其负责任的AI(RAI)团队,因为它将更多的资源投入到生成式AI中。《信息》今天发布了这条新闻,引用了它看到的一个内部帖子。
据报道,大多数RAI团队成员将转移到公司的生成式AI产品团队,而其他人将致力于Meta的AI基础设施。公司经常表示,它希望负责任地开发AI,并且甚至有一个专门的页面来承诺,公司在这个页面上列出了它的“负责任的AI支柱”,包括问责制、透明度、安全性、隐私性等。
《信息》的报告引用了代表Meta的Jon Carvill的话,他表示公司将“继续优先考虑并投资于安全和负责任的AI发展。”他补充说,尽管公司正在拆分这个团队,但这些成员将“继续支持跨Meta的有关负责任的AI开发和使用的工作。”
今年早些时候,该团队已经经历了重组,Business Insider 编写了包括裁员的报道,使RAI“成为团队的外壳”。该报道继续说自2019年以来就存在的RAI团队几乎没有自主权,其举措必须经过冗长的利益相关者谈判才能实施。
RAI成立的目的是找出其AI训练方法的问题,包括公司的模型是否接受了足够多样化的信息进行训练,以防止发生像平台上的内容审查问题之类的事情。Meta社交平台上的自动化系统导致了许多问题,例如Facebook翻译问题导致了一起错误逮捕,WhatsApp AI贴纸生成在给定某些提示时产生偏见图片,以及Instagram算法帮助人们找到儿童性虐待材料。
像Meta和微软今年早些时候采取的类似措施,随着世界各国政府争相为人工智能开发创建监管路线图。美国政府与AI公司达成了协议,随后拜登总统指示政府机构提出AI安全规则。与此同时,欧盟公布了其AI原则,并仍在努力通过其AI法案。