OpenAI组建新团队,收集公众意见以确保AI大模型与人类价值观保持一致

2024年01月17日 由 daydream 发表 215 0

OpenAI表示希望从公众那里获得一些想法,以确保其未来的AI模型“符合人类的价值观”。


微信截图_20240117134651


为此,这家AI初创公司正在组建一个由研究人员和工程师组成的新的集体对齐团队(Collective Alignment ),以创建一个系统,用于收集和“编码”公众对其模型行为的输入,并将其纳入OpenAI的产品和服务中。


OpenAI在一篇博客文章中写道:“我们将继续与外部顾问和资助团队合作,包括运行试点项目,将……原型纳入我们的模型指导。” “我们正在招募……来自不同技术背景的研究工程师,帮助我们共同完成这项工作。”


集体对齐团队是OpenAI公共计划的一个延伸,该计划于去年5月启动,旨在授予资助金,用于资助实验,建立一个“民主过程”,以决定AI系统应遵循的规则。OpenAI在首次发布时表示,该计划的目标是资助个人、团队和组织,开发能够回答有关AI的防护栏和治理的问题的概念验证。


在博客文章中,OpenAI回顾了资助者的工作,涵盖了从视频聊天界面到用于对AI模型进行众包审核的平台,以及“将信念映射到可用于微调模型行为的维度的方法”。


OpenAI试图将该计划与其商业利益割裂开来。但这有点难以接受,考虑到OpenAI首席执行官Sam Altman对欧盟和其他地方的监管的批评。Altman与OpenAI总裁Greg Brockman和首席科学家Ilya Sutskever一再辩称,AI创新的速度如此之快,我们不能指望现有的权力机构能够充分地控制这项技术,因此需要众包这项工作。


一些OpenAI的竞争对手,包括Meta,指责OpenAI(以及其他一些公司)试图通过反对开放的AI研发,来获得“AI行业的监管控制权”。OpenAI不出所料地否认了这一点,并可能会将资助计划(和集体对齐团队)作为其“开放性”的一个例子。


无论如何,OpenAI正面临着来自政策制定者的日益增加的审查,因为它与密切合作伙伴和投资者微软的关系在英国受到调查。该初创公司最近试图在欧盟缩小其围绕数据隐私的监管风险,利用其在都柏林的子公司,降低了该区域内某些隐私监督机构单方面采取行动的能力。


近日,OpenAI宣布,它正在与组织合作,试图限制其技术被用于通过恶意手段影响或操纵选举的方式,这无疑是为了安抚监管者。该初创公司的努力包括,使用其工具生成的图像更加明显,并开发在图像被修改后仍能识别生成内容的方法。



文章来源:https://techcrunch.com/2024/01/16/openai-announces-team-to-build-crowdsourced-governance-ideas-into-its-models/
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消