只需要提供一张带脸的照片,就可以将该照片中的人脸放到各类视频中而且毫无违和感,这就是AI换脸。然而,不法分子也悄悄盯上了这个技术。 5月22日,“AI诈骗正在爆发”相关话题冲上微博热搜榜,引发广大网友热议。那么,这种AI电诈骗局到底是怎么实施的?市民又该如何防范?昨日,记者采访了市公安局反电诈中心民警,为大家揭开AI诈骗的神秘面纱。 接个“好友”视频电话 被骗430万元 5月20日,“平安包头”微信公众号发布一起使用智能AI技术进行电信诈骗的案件。 此前,福州市某科技公司法人代表郭先生的好友通过微信视频联系他,称自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,想借用郭先生公司账户走账。好友向郭先生要了银行卡号,称已经把钱打到他账户上,还把银行转账底单的截图发给了郭先生。基于视频聊天的前提下,郭先生没有核实钱是否到账,先后分两笔把430万元给对方打了过去。 钱款转账后,郭先生给好友发信息称事情已经办妥。但让他没想到的是,好友回了个问号。郭先生打电话,对方却说没有这回事,他这才意识到被骗。不法分子通过智能AI换脸技术,佯装成好友对他实施了诈骗。 当天,包头公安和福州公安立即行动,成功为郭先生拦截了336.84万元被骗资金。 这起案件曝光后,引发网友热议,也让“AI诈骗正在爆发”相关话题冲上微博热搜榜。不少网友表示,以往碰到亲朋好友转账的情况,都会先打视频电话确认一下,但没想到视频那边的他还真不一定就是“他”。 因AI技术被诈骗的不仅是郭先生。据华西都市报此前报道,2022年2月,陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友在社交平台发布的视频,截取其面部画面后再利用“AI换脸”技术合成,制造视频聊天的假象骗取其信任,从而实施诈骗。 AI换脸+声音,专对“好友”下手 AI诈骗到底是如何实施的呢?昨日,记者采访了市公安局反电诈中心负责人王海军。 他介绍,通过AI技术,不仅可以换脸,还可以合成声音。AI诈骗其实是冒充亲友、领导诈骗的“升级版”,在传统诈骗手法上又增加了AI技术,以迷惑被骗者,取得信任。除了利用AI技术冒充亲友诈骗外,此前曝光的“裸聊”诈骗,其实运用的就是AI技术合成了所谓的“美女”,进行视频聊天后索要钱财。 “利用AI技术诈骗一般分为几种。”王海军说,一种为精准诈骗,骗子一般先通过不法手段获取该对象的微信朋友圈、通讯录等,对聊天、通话较为频繁的好友下手。在视频通话中,利用AI换脸,骗取“目标人员”信任,实施诈骗。在这种诈骗中,骗子为了提高成功率,还会故意制造网络卡顿等情况,导致视频通话质量受限,增加可信度;另一种是骗子通过打骚扰电话进行录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。此外,还有骗子会在盗取微信号后,通过提取语音文件或安装非官方版本(插件)实现语音转发,向其好友“借钱”。 涉及转账,务必多方核验 那么,面对AI诈骗这种新型骗局,市民应该如何防范呢? “多重验证,确认身份。”王海军提醒,AI技术毕竟不是真人,经过换脸和声音合成后,若仔细观察还是会发现一些端倪。所以,不论是亲戚还是朋友、领导,通过社交软件、短信等各种形式诱导汇款转账的,一定要通过电话、见面等多种渠道核验对方身份,未经核实切勿随意转账汇款。为避免被骗,还要学会保护自己的个人信息,不要轻易提供人脸、指纹等给他人,不过度公开或分享动图、视频等。 王海军说,还要提高安全防范意识,注意陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。如不慎被骗或遇可疑情形,注意保存证据并拨打96110报警。 |
欢迎关注阜阳新闻网微信公众号 : fynewsnet