在网络上,耳听不一定为实,眼见不一定为真。
就在AI技术大爆发的当下,高科技犯罪手段也随之更新。近日,一种利用AI换脸技术实施诈骗的手法逐步浮出水面。而AI技术加持下的骗局,成功率接近100%!
10分钟被骗430万元
近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件,详细记录了一位民营企业负责人被骗的过程。
事情是这样的:
福州市某科技公司法人代表郭先生的好友,突然通过微信视频联系到他。
两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。
好友向郭先生要了银行卡号,声称已经把钱打到郭先生的账户上,还把银行转账底单的截图通过微信发给了郭先生。
基于视频聊天信任的前提下,郭先生没有核实钱是否到账,先后分两笔把430万元给对方打了过去。
钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。
郭先生拨打好友电话,对方说没有这回事,他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。
很快,这笔钱一到账,就被骗子转账出去。
好在这位民企负责人是幸运的。包头市警银联动,成功紧急止付涉嫌电信诈骗资金330多万元。剩下93.16万元,资金流出信息,也为深入突破该案剩余资金查找提供了突破方向。
目前,福建警方与包头警方对此资金正在全力追缴当中。
AI诈骗成功率接近100%
“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生说。
很明显,郭先生陷入了一场利用AI换脸技术实施的诈骗骗局。
什么是AI换脸?就是通过AI人工智能技术,把别人的脸换成自己的脸,而且脸部表情自然,效果逼真。
整个过程你只需要通过一张照片,然后利用AI技术可以在软件上使用自己的照片替换电视剧或者小视频中的人物,从而生成以自己为主角的视频。
这种技术的发展,竟然成为了新型诈骗手段。骗子会利用AI技术,将他人的脸换成指定人的脸,冒充诈骗对象的亲人、朋友等重要关系人,通过合成视频或照片来“以假乱真”。
值得注意的是,骗子不是漫无目的地广撒网,而是别有用心地锁定诈骗对象。
他们会分析诈骗对象在网络平台发布的个人信息,根据所要实施的骗术利用AI技术对人群进行筛选,从而选出目标对象,制定诈骗计策。
警方提醒:涉及转账、汇款等情况时,务必要通过多方渠道核实并确定对方身份。建议将到账时间设定为“2小时到账”或“24小时到账”,以预留处理时间。