1. 首页
  2. 7x24快讯

网聊10分钟被骗430万,AI换脸拟声骗术正入侵我们生活

  文章转载来源:AIGC

  来源:钛媒体App

  作者:林志佳

  近日,内蒙古自治区包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,骗子通过智能AI换脸和拟声技术,佯装好友对福州市某科技公司法人代表郭先生实施了诈骗,10分钟内被骗了430万元。

  5月8日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,警银联动成功紧急止付涉嫌电信诈骗资金330多万元。

  事件从4月20日说起。

  据平安包头公众号所述,20日中午,郭先生的好友突然通过微信视频联系他,自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天核实了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。郭先生拨打好友电话,才知道被骗。

  骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。 

  幸运的是,接到报警后,福州、包头两地警银迅速启动止付机制,在银行的全力协助下,仅用时10分钟,成功止付拦截336.84万元,但仍有93.16万元被转移,目前福建警方与包头警方对此资金正在全力追缴当中。

  这不只是个案,最近一段时间国内外都出现了 AI 诈骗案例,用户损失惨重。

  随着ChatGPT风靡全球,生成式 AI 有望取代更多人类工作,在文字创作、AI绘画、AI翻译、AI客服等方面替代人工。但同时,AI 技术被滥用风险加剧,一些犯罪分子盯上了 AI 技术,实施电信诈骗,让人防不胜防,同时凸显了 AI 生成虚假信息所带来的社会危险。

  AI诈骗正在全球蔓延,成功率接近100%

  实际上,AI 换脸技术并非是近期才兴起。

  早在2017年,一位名为DeepFake网友将情色电影中的女主角换脸成好莱坞明星盖尔·加朵(Gal Gadot),这是AI换脸技术首次出现在公众视野当中。后来由于大量投诉者表示不满,其账号被官方封禁,而此后的AI换脸技术则以他的名字命名为“DeepFake”。

- 星际资讯

免责声明:投资有风险,入市须谨慎。本资讯不作为投资建议。

下一篇:价值36亿美元的比特币和以太坊期权合约将于周五到期
« 上一篇
上一篇:“AI孙燕姿们”到底伤害了谁?
下一篇 »

相关推荐