研究揭示大型语言模型存在的安全漏洞

2023年10月13日 由 daydream 发表 250 0

ChatGPT和Bard等LLM(大型语言模型)在今年掀起了一股热潮,公司投资数百万美元来开发这些人工智能工具,一些领先的AI聊天机器人估值甚至达到了数十亿美元。


微信截图_20231013111744

这些LLM在AI聊天机器人中的应用日益增多,它们通过抓取整个互联网的信息来学习并回答用户提出的特定请求(即"提示")。


然而,来自AI安全初创公司Mindgard和英国兰卡斯特大学的计算机科学家们已经证明,这些LLM的部分内容可以在不到一周的时间内以低至50美元的价格被复制,并且被获取的信息可以用于发起有针对性的攻击。


研究人员警告称,利用这些漏洞的攻击者可能会泄露私人保密信息、绕过安全防护、提供错误答案或进行更进一步的有针对性攻击。


这项研究将在2023年应用机器学习信息安全会议(CAMLIS)上展示,并在一篇新的论文中详细介绍。研究人员展示了以低成本复制现有LLM的重要内容的可行性,并展示了漏洞在不同模型之间的传递证据。


这种攻击被称为"模型寄生",通过与LLM进行对话,提出一系列有针对性的提示,从而让LLM透露出模型的工作原理。


研究团队针对ChatGPT-3.5-Turbo进行了研究,利用这些知识创建了自己的复制模型,该模型规模小100倍,但可以复制LLM的关键内容。


然后,研究人员利用这个复制模型作为测试平台,找出如何在不被察觉的情况下利用ChatGPT中的漏洞。他们随后利用从模型中获得的知识攻击ChatGPT中的漏洞,成功率提高11%。


兰卡斯特大学的彼得·加拉汉博士(Mindgard的首席执行官,该研究项目的首席研究员)表示:"我们发现的科学现象非常令人担忧。这是最早的研究之一,从实证上证明了安全漏洞可以在封闭源模型和开源机器学习模型之间成功传递,鉴于工业界如此依赖于在HuggingFace等地方托管的公开可用机器学习模型,这非常令人担忧。”


研究人员表示,他们的研究突显了这些强大的数字化AI技术虽然有明确的用途,但也存在隐藏的弱点,甚至模型之间可能存在共同漏洞。


各行业的企业目前正在或准备投资数十亿美元来创建自己的LLM,用于执行各种任务,如智能助手。金融服务和大型企业都在采用这些技术,但研究人员表示,这些漏洞应该是所有计划构建或使用第三方LLM的企业都应该关注的重要问题。


加拉汉博士表示:"虽然LLM技术具有潜在的转型能力,但企业和科学家们必须非常谨慎地思考采用和部署LLM所涉及的网络风险,并进行充分的了解和评估。"

文章来源:https://techxplore.com/news/2023-10-ai-expose-critical-vulnerabilities-major.html
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消