你能相信你的耳朵吗?人工智能语音诈骗引起震动
2023年06月13日 由 daydream 发表
150744
0
电话里的声音似乎真实得可怕——一位美国母亲听到女儿啜泣,随后一名男子接过电话,索要赎金。女孩只是人工智能的克隆版本,绑架是假的。
专家表示,人工智能最大的危险在于它能够打破现实与虚构之间的界限,为网络犯罪分子提供一种廉价而有效的技术来传播虚假信息。
在一种新型的骗局中,骗子使用极具说服力的AI声音克隆工具——这些工具在网上广泛可得——通过冒充家庭成员而从人们那里骗取财物。
“帮帮我,妈妈,请帮帮我,”亚利桑那州的母亲Jennifer DeStefano听到电话另一端有一个声音在说。
DeStefano“100%”相信这是她15岁的女儿在滑雪旅行时陷入深深的困境。
“这完全是她的声音...这是她哭泣的方式“DeStefano在四月份告诉当地一家电视台。
“我从未怀疑过那是她。”
接听电话的骗子来自DeStefano不熟悉的号码,骗子要求支付高达100万美元的赎金。
跟女儿取得联系后,DeStefano很快发现这是虚假的,而由AI驱动的骗局仅在几分钟内就被揭穿,但这起可怕的案件突显了网络犯罪分子滥用克隆人工智能的可能性。此案目前正在警方调查中。
祖父母骗局
“人工智能语音克隆现在几乎与人类语音无法区分,这使得像骗子这样的威胁行为者更有效地从受害者那里获取信息和资金”Blackbird.AI 首席执行官Wasim Khaled说。
一个简单的互联网搜索会产生各种各样的应用程序,其中许多是免费提供的,可以用一个人的真实声音的小样本(有时只有几秒钟)创建人工智能语音,这些声音可以很容易地从在线发布的内容中窃取。
“通过一个小的音频样本,人工智能语音克隆可用于留下语音邮件和语音文本。它甚至可以用作电话中的实时语音转换器“Khaled说。
“诈骗者可以使用不同的口音、性别,甚至模仿亲人的说话模式。这项技术可以制造出令人信服的赝品。”
在对包括美国在内的9个国家的7000人进行的一项全球调查中,四分之一的人表示他们经历过人工智能语音克隆骗局,或者知道有人遇到过。
美国迈克菲实验室上个月发布的这项调查显示,70%的受访者表示,他们不相信自己能“分辨出克隆的声音和真实的声音”。
美国官员警告说,众所周知的“祖父母骗局”正在兴起,在这种骗局中,一个冒名顶替的人会假扮成处于紧急需要资金的孙子或孙女。
美国联邦贸易委员会在三月份的一项警告中表示:“你接到了一个电话,听到电话那头的是一个惊慌的声音,是你的孙子。他说他陷入了困境——车出了事故,他还被关在了监狱里。但你可以帮助他,只需要汇款就可以了。”
“听起来就像是他。怎么可能是骗局呢?”AI声音克隆,这就是原因。
在联邦贸易委员会警告下面的评论中,有多个老年人受骗的证言。
“恶意”
这也反映了芝加哥19岁的Eddie的经历,他的祖父接到了一个听起来和他一样的人的电话,声称他在车祸后需要钱。
迈克菲实验室(McAfee Labs)报道说,这个骗局非常有说服力,以至于他的祖父在谎言被发现之前紧急开始筹集资金,甚至考虑重新抵押他的房子。
“因为现在很容易生成高度逼真的语音克隆......几乎任何拥有在线存在的人都容易受到攻击,“加州大学伯克利分校信息学院教授Hany Farid说。
“这些骗局正在获得关注和传播。”
今年早些时候,人工智能初创公司ElevenLabs承认,其语音克隆工具可能被滥用于“恶意目的”,因为用户发布了一个deepfake音频,声称是演员艾玛沃特森正在阅读阿道夫希特勒的传记“我的奋斗”。
“我们正在迅速接近这样一个时代,你不能相信你在互联网上看到的东西。”风险投资公司Team8的集团首席技术官Gal Tal-Hochberg说。
“我们需要新的技术来确定你所认为的正在交谈的人是否真的是你所认为的那个人”他说。
来源:https://techxplore.com/news/2023-06-ears-ai-voice-scams-rattle.html