Imperva警告称,影子人工智能将引发新一波内部威胁
2023年07月03日 由 daydream 发表
473476
0
Imperva警告称,数据管理不善和新一代生成式人工智能工具的出现将导致数据泄露激增。随着以LLM为动力的聊天机器人变得越来越强大,许多组织已经全面禁止使用它们或限制与其共享数据。然而,由于绝大多数(82%)组织没有有效的内部风险管理策略,他们对员工使用生成式人工智能来帮助他们完成编写代码、填写提案请求等任务的行为视而不见,尽管这通常涉及员工授权未经许可的应用访问敏感数据存储。
Imperva的数据安全高级副总裁和现场首席技术官Terry Ray表示:“禁止员工使用生成式人工智能是徒劳无功的。”
他补充道:"我们在许多其他技术上都看到了类似的情况——人们不可避免地能够绕过这些限制,因此禁止只会让安全团队陷入无休止的麻烦游戏,但并不能真正使企业更安全。"
内部威胁占据了所有数据泄露案件的半数以上 内部威胁占据了所有数据泄露案件的半数以上(58%),且通常是最具破坏性的。Imperva关于过去五年最大数据泄露案的先前研究发现,四分之一(24%)的数据泄露是由于人为错误(定义为意外或恶意使用凭证进行欺诈、盗窃、勒索或数据丢失)造成的。然而,企业通常会对内部威胁进行优化,三分之一(33%)的企业表示他们并不认为这些威胁具有重大威胁。
Ray继续说道:“人们并不需要有恶意意图造成数据泄露。大多数情况下,他们只是为了更高效地完成工作。但如果公司对LLMs访问其后端代码或敏感数据存储视而不见,那么问题迟早会爆发。"
Imperva认为,与其依赖员工不使用未经授权的工具,企业应该专注于保护其数据,并确保能够回答重要问题,例如:谁在访问数据,什么数据,以及如何和从哪里访问。该公司提出了一些步骤,称每个组织无论规模大小都应采取:
可见性:组织必须发现并对其环境中的每个数据存储库进行可见性管理,以确保不会忽略或滥用在影子数据库中存储的重要信息。
分类:一旦组织确定了其环境中每个数据存储库的清单,下一步是根据类型、敏感性和对组织的价值对每个数据资产进行分类。有效的数据分类有助于组织了解其数据的价值,确定数据是否面临风险,并实施适当的控制措施以降低风险。
监控和分析:企业还需要实施能够检测异常行为、数据外泄、特权升级或可疑账号创建等威胁的数据监控和分析能力。
来源:https://aimagazine.com/articles/imperva-shadow-ai-set-to-drive-new-wave-of-insider-threats