头条资讯网_今日热点_娱乐才是你关心的时事新闻

今日热点 时事资讯
娱乐头条才是你关心的新闻
首页 > 头条资讯 > 科技

3秒模仿声音!AI语音诈骗横行

GeoffreyHinton是ChatGPT等人工智能工具发展背后的技术先驱。

但这位75岁的开拓者表示,由于AI可能被滥用,他对自己毕生致力的工作感到遗憾。

“你很难防止有人利用它做坏事。”

图源bloomberg版权属于原作者

根据Hinton的说法,他的主要担忧之一是AI生成工具会导致虚假或欺诈内容被创造出来,以及普通人无法再知道什么是真实的。

例如几周前,身穿巴黎世家白色羽绒服的教皇假照片在网上流传开来。

图源globalnews版权属于原作者

同理还有特朗普被捕的照片,这些都是AI生成的虚假照片,但是足以以假乱真。

图源buzzfeednews版权属于原作者

这类图像如果不及时“辟谣”,会让不知情的受众掌握错误信息。

更可怕的是,除了图像,声音也可以复制。

1月的一个下午,JenniferDeStefano接到了一个匿名电话,电话那头是她15岁的女儿尖叫的声音。紧接着是一名男子的声音,声称绑架了Jennifer的女儿,并索要100万美元。

图源nbcnews版权属于原作者

Jennifer顿时如坠冰窖,因为当时她15岁的女儿恰好出城参加滑雪比赛,并不在家。

但Jennifer突然急中生智,先给女儿尝试的拨打了电话。

在警方的帮助下,发现这是一起语音人工智能的骗局。

“这显然是她的声音,”Jennifer接受采访时表示,“电话里的音调变化,都和女儿的声音一模一样。”

网络安全公司McAfee调查发现,四分之一的受访成年人都经历过AI语音诈骗。

图源times版权属于原作者

77%的目标客户报告说他们因诈骗而损失了钱,在这77%的人中,“超过三分之一的人损失了超过1,000美元,而7%的人被骗了5,000到15,000美元。”

调查显示,美国的受害者损失最大。通过AI语音诈骗而蒙受损失的美国受害者中,有11%损失了5,000至15,000美元。

欺诈者会通过AI语音生成器播放一段从社交媒体上截取的声音,使用机器学习生成独特的原始音频,近乎完美地模仿对方的声音,而这一切操作都非常简单,短短几秒就可以完成。

任何你上传到社交媒体上的声音文件,都有可能成为诈骗者的创作素材。

图源nbcnews版权属于原作者

然后,骗子会通过应用程序将这些录音发送给受害者的朋友和亲戚,从而骗取钱财。

如何预防诈骗

随着AI语音诈骗变得越来越普遍,有一些迹象可以识别骗局:

•不寻常的联系方式(例如未知号码)•立即要求大笔资金•要求通过不寻常的方式(例如礼品卡或加密货币)转移资金•要求您不要将电话/事件告诉任何人

如果感觉到是骗局后,您应当:

•拨打给您留言的号码以验证其身份•拨打您家人或朋友的个人电话号码,验明真伪•及时报警

未经允许不得转载:头条资讯网_今日热点_娱乐才是你关心的时事新闻 » 3秒模仿声音!AI语音诈骗横行

分享到:更多 ()
来源:一亩三分地 编辑:科技

评论

留言/评论 共有条点评
昵称:
验证码:
匿名发表