AI的进步引发人们对Deepfake的焦虑

2023年10月16日 由 samoyed 发表 444 0

随着人工智能和机器学习工具的不断发展,IT决策者对Deepfake技术及其对全球业务的影响表示担忧。


IT决策者认为人工智能是一个令人担忧的领域,因为行业领导者没有意识到如果不道德地使用这项技术可能对企业产生的潜在毁灭性影响。


gettyimages-1445807140


Deepfake技术变得越来越先进,这使得人们很难辨别和阻止其被恶意使用。随着合成媒体技术的普及,Deepfake可以用于破坏声誉,伪造证据和破坏信任。


随着Deepfake技术越来越多地被用于恶意目的,企业应确保他们的员工经过充分培训,了解与人工智能生成内容相关的风险。


Deepfake继续制造混乱


现在几乎任何人都可以使用易于使用、易于获得的人工智能软件制作内容,伪造虚假的事情,从而使坏人更容易欺骗公众。


Deepfake的危险在于无法辨认什么是真的,什么是人工智能生成的。正如SailPoint的前首席信息安全官Heather Gantt-Evans解释的那样:“现在,每个人都看过由深度学习(DL)和人工智能技术生成的假视频,也就是‘Deepfake’视频。”


“然而,想象一下,如果你收到一封带有你的CEO的Deepfake视频的钓鱼邮件,指示您访问恶意网址。或者攻击者使用AI更好地模仿企业通信,构造出更可信、更类似合法的钓鱼邮件。现代人工智能能力完全可以模糊合法和恶意邮件、网站、公司通信和视频之间的界限。”她继续说道。


如果以正确的方式使用,Deepfake确实有可能为我们的生活带来积极影响。当专业人士知道如何充分利用人工智能时,人工智能有利于网络安全运营。


Integrity360,一个领先的网络安全专家,发布了对人工智能对网络安全的影响、风险和优势进行的独立研究的调查结果。该调查突显了对人工智能使用(尤其是Deepfake)的担忧。


调查指出,过去一年攻击方式发生了变化,变得更加复杂,所谓的“攻击性人工智能”被用于恶意软件制作等犯罪活动。人工智能还被用于创建更多的钓鱼邮件,其内容准确地模仿合法电子邮件的语言、语调和设计。


调查显示:
68%的受访者表示担心网络犯罪分子使用Deepfake技术来针对他们的机构。
59%的受访者认为人工智能增加了网络安全攻击的数量。
46%的受访者不同意他们不理解人工智能对网络安全的影响。
61%的受访者对人工智能的增长表示担忧,表明行业担忧。
71%的受访者认为人工智能提高了事件响应的速度和准确性。


尽管存在顾虑,但绝大多数受访者(73%)认为人工智能在事件应对的网络安全战略中变得越来越重要。这或许反映出该行业正认识到人工智能工具可以同时用于防御和进攻。


对于人工智能对企业的威胁,一个担心是网络技能缺口,这可能对企业产生影响。考虑到这一点,有必要确保所有员工接受适当的培训,以应对人工智能在网络安全中的作用和威胁。


Integrity360的产品开发、创新和战略负责人Brian Martin评论说:“使用人工智能进行网络攻击已经对企业构成威胁,但认识到未来的潜力和其可能带来的影响只是个开始……企业需要为如何防御并辨别什么是真实的、避免成为攻击目标做好准备。”


他继续说道:“人工智能在网络安全中的作用不仅是一种观念,而是一个实际存在的现实。随着人工智能技术的日益普及,以及攻击者寻求扩大其对人工智能网络攻击的使用,传统的网络攻击最终将变得过时。”


“随着人工智能技术的不断发展,它将被整合到网络安全中。企业必须积极采纳人工智能,同时解决它带来的挑战,确保其网络安全防御跟上人工智能的步伐。”

文章来源:https://aimagazine.com/machine-learning/the-rising-tide-of-deepfakes-as-ai-growth-cause-concern
欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
写评论取消
回复取消