随着生成人工智能等技术的发展,技术变得越来越智能,网络安全攻击也越来越智能。谷歌最新的网络安全预测显示,人工智能的兴起带来了新的威胁。
本周三,谷歌发布了《2024年谷歌云网络安全预测》,该报告是通过与众多谷歌云安全团队合作编写的,旨在深入研究来年的网络形势。
报告发现,生成式人工智能和大型语言模型(LLM)将被用于各种网络攻击,如网络钓鱼、短信和其他社会工程操作,目的是使语音和视频等内容和材料看起来更合法。
例如,当使用生成人工智能时,原本网络钓鱼攻击的缺陷,如拼写错误、语法错误和缺乏文化背景,将更难发现,因为它在模仿自然语言方面做得很好。
在其他情况下,攻击者可以提供LLM合法内容,并生成适合攻击者目标但与原始输入保持相同风格的改动过的版本。
该报告还预测,LLM和其他生成式人工智能工具将如何得到越来越多的开发,这些工具作为付费服务提供,以帮助攻击者以更少的精力更有效地部署攻击。
然而,人工智能或LLM并没有在做错误的事,因为攻击者只是使用生成式人工智能创建内容,例如起草发票提醒,这个行为本身并不是恶意的,但攻击者可以利用它为自己实现自己的恶意的目的。
另一个潜在的人工智能威胁是信息操作。攻击者只需使用人工智能提示,就可以使用生成的人工智能模型来创建假新闻、假电话以及深度伪造的照片和视频。
报道称,这些操作可能会降低公众对新闻和在线信息的信任,让人们更加怀疑或不再信任他们获取到的新闻。
报告称:“这可能会使企业和政府在不久的将来越来越难以与大众交流。”
尽管攻击者正在使用人工智能来增强攻击,但网络防御者也可以利用这项技术来对抗更先进的防御。
“人工智能已经为我们的网络防御者提供了巨大的优势,使他们能够提高能力,减少工作量,更好地抵御威胁,”谷歌云人工智能首席执行官Phil Venables说。“我们预计,随着防御者拥有这项技术,并在考虑到具体用例的情况下指导其开发,人工智能带来的能力和优势将在2024年激增。”
防御者可以使用生成人工智能产生可操作的检测,并以更快的速度采取行动。