Layier AI的核心产品LLM Guard旨在为大型语言模型(如OpenAI LP的GPT-4)提供安全性,以应对各种安全威胁、滥用和攻击。LLM Guard可抵御人工智能模型中可能出现的提示注入攻击、数据中毒和其他漏洞等威胁。
提示注入攻击涉及攻击者通过精心编制的输入操纵LLM,导致数据泄露或决策操纵。攻击可以是直接的,通过LLM的输入,也可以是间接的,通过受污染的数据源输入。由于对LLM输出的隐含信任,它们通常会绕过检测。
LLM Guard可以检测、编辑和清除LLM的输入和输出。这样做可以降低可能操纵模型输出导致个人数据泄露的风险,确保这些模型处理的数据的完整性和安全性。该服务针对性能进行了优化,并与现有的安全工作流集成,提供了可观察性工具,如日志记录和度量。
根据Laiyer的说法,LLM Guard 可以将 CPU 推理延迟降低到原来的三分之一,能够在不影响准确性的情况下使用成本效益高的CPU而不是昂贵的GPU。该代码是开源的,采用率很高,仅在30天内,Laiyer AI在Hugging Face上就看到了超过13000次库下载和250万次模型下载。
通过收购,Protect AI打算创建LLM Guard的商业版本,在Protect AI平台内扩展功能、功能和集成。首席执行官Ian Swanson在宣布之前表示:“这些新功能将使我们在汽车、能源、制造、生命科学、金融服务和政府部门的客户能够开发安全可靠的GenAI应用程序。”
Laiyer联合创始人Neal Swaelens和Oleksandr Yaremchuk补充道,“通过与Protect AI联手,我们正在扩展Protect AI具有LLM安全功能的产品,以提供业界最全面的端到端人工智能安全平台。”
Protect AI是一家由风险投资支持的初创公司,上一次筹集3500万美元资金是在7月份。该公司的投资者包括Evolution Equity Partners LLP、Salesforce Ventures LLC、Acrew Capital LP、Boldstart Ventures LLC,Knollwood Capital LLC和Pelion Ventures Partners LLC。