全球云连接提供商 Cloudflare 宣布开发出一款 AI 防火墙,为企业的人工智能大型语言模型提供一层保护,目的是在潜在攻击篡改关键功能或访问敏感数据之前将其识别出来。
该公司还宣布了一套新的防御性网络安全工具套件,这些工具使用 AI 来对抗新兴 AI 威胁。这些工具包括检测用户行为异常、扫描电子邮件以标记可疑消息以及缓解对组织的威胁。
随着越来越多的公司开始将 LLM 和 AI 模型作为数字化转型的核心部分,企业必须面对随之而来的安全风险。根据最近的一项德勤研究,只有四分之一的 C 级高管相信他们的组织已经准备好应对 AI 带来的风险。
“我们已经进入了 AI 军备竞赛,今天许多由 AI 驱动的应用程序——其中许多推动了我们的医疗保健、银行系统和电网——都建立在安全模型上,这一点至关重要。”Cloudflare 联合创始人和首席执行官马修·普林斯(Matthew Prince)表示。“这种保护应该对所有可用,因为安全的互联网对每个人都有利。”
该公司表示,新的 AI 防火墙将为安全团队提供快速检测新威胁的能力,因为它可以部署在 Cloudflare 现有 Workers AI 产品上运行的任何 LLM 前面。Workers AI 允许开发人员在 Cloudflare 全球网络上以规模化的方式在边缘部署 AI 模型,从而使任何运行的 LLM 尽可能接近企业客户,实现极低的延迟响应。
通过在 LLM 之前设置防火墙,它可以扫描用户提交的提示,以识别尝试利用模型并提取数据的行为。因此,它可以在不需要人为干预的情况下自动阻止威胁。任何在 Cloudflare Workers 上运行 LLM 的客户都可以利用此防火墙,并免费获得这一新功能,以防范不断增长的担忧,如提示注入和其他攻击向量。
提示注入攻击旨在通过精心构造一个问题来让 LLM 泄露敏感信息,这个问题会劫持模型的工作方式,让 AI 说出攻击者想要的确切内容。使用提示注入,攻击者可以通过向 LLM 提供新命令来覆盖之前给它的指令,这可能会让攻击者让 LLM 泄露敏感信息或访问关键功能。
Cloudflare 的新保护使用 AI 对抗 AI
Cloudflare 表示,通过 Defensive AI,它提供了一种个性化的方法来保护企业网络免受新技术(如 AI 加强的攻击)带来的新风险。这是通过使用 AI 来检测电子邮件、恶意代码和异常流量模式实现的。
据该公司称,它已经扩大了其服务范围,以根据客户的特定流量模式训练 AI 模型,并根据公司网络和环境的基础行为量身定制防御策略。
Prince说:"通过了解客户环境中的'正常基线',减轻威胁,从而提高恢复能力,防御型人工智能是防御者领先于当今对手的关键优势。”
随着诸如 OpenAI 的 ChatGPT 等 AI 的兴起,攻击者在网络钓鱼骗局中变得越来越狡猾,网络钓鱼骗局是一种试图诱骗用户泄露敏感信息的电子邮件或消息。在过去,这些骗局并不总是非常可信,因为书面信息中常常存在明显的错误,如语法错误或设计拙劣。但现在,借助 AI,攻击者可以根据其目标定制电子邮件,使其更有可能被相信,并诱骗他们泄露密码或敏感信息。
Cloudflare 表示,借助其 Defensive AI,可以更快地检测电子邮件威胁,从而在员工上当受骗之前识别出诈骗信息。
采用同样的防御策略,Cloudflare 正在开发一种应用程序编程接口异常检测模型,该模型将防止针对渗透网络、攻击应用程序和窃取数据的攻击。目的是生成网络内的正常行为模型,然后监视流量中的异常情况,因为攻击会偏离应用程序的适当行为,它将作为防范恶意攻击的护栏。
“我们已经进入了一个用 AI 对抗 AI 的时代。”Prince说。“以个性化方式保护数据并防御组织攻击面所面临的复杂威胁——快速且规模巨大——至关重要。”