人工智能专家支持拟议的安全开发指南
2023年07月25日 由 Susan 发表
981120
0
一群国际人工智能专家发布了一套关于安全开发人工智能工具的新指南。虽然是一份自愿性的框架,但它包含了一个清单,其中包含84个问题,供组织和人工智能开发者在开发新产品时考虑。
这一消息是在联合国安理会会议讨论人工智能对全球业务和政府系统构成威胁之后发布的。
随着人工智能在社会和商业领域的普及,这种指南将服务于那些希望提升他们的人工智能能力并更好地服务人类的人们。
携手推进数字化转型
如英国广播公司(BBC)报道,世界道德数据基金会发布了他们的指南作为一封公开信,邀请公众提交他们自己关于人工智能的问题供开发者考虑,从而创造出更加开放的全球对话。
世界道德数据基金会拥有2.5万名会员,其中包括Meta、谷歌和三星等大型科技公司。
Meta公司特别发布了其下一代大型语言模型(LLM)Llama 2,这是一个新的开源人工智能模型。该公司表示希望这个工具能够在行业内促进负责任和安全使用人工智能和LLM。
通过开源使开发者和用户能够就生成式人工智能的发展进行公开讨论,以及如何以更安全负责的方式进行开发。
正是这种类型的开放对话,将确保积极而更有影响力的数字转型。联合国安全理事会会议提到了人工智能在包括医疗保健、金融和网络安全等多个行业的潜在应用。
然而,尽管大公司能够在人工智能上投入大量资金和资源,但较小的企业可能需要专家的更多指导来跟上发展,并可能在安全和负责任方面遇到困难。
在联合国安全理事会会议上,联合国秘书长安东尼奥·古特雷斯呼吁成立一个全球监管机构来监控不断发展的人工智能技术,并表示联合国将任命一个人工智能咨询委员会,旨在在2023年底前就全球人工智能治理的选项提交报告。
这个目前尚属假设的机构将包括人工智能专家,并为组织和政府提供专业知识,这些组织和政府可能缺乏有效应对人工智能威胁所需的技术知识。
随着与人工智能使用相关的网络欺诈风险的增加,网络攻击和身份欺诈正在迅速变得更加复杂。监管机构和政府组织继续努力对抗对全球组织的攻击至关重要。
来源:https://aimagazine.com/ai-strategy/ai-experts-support-proposed-guidelines-for-safe-development