摘要:虽说“眼见为实”,但虚拟世界里的“眼见为实”却不一定真。如今,“AI(人工智能)换脸”图片和视频成为热门现象,AI换脸、拟声等技术,定制性强、应用场景广泛,不法分子作案手法多样,导致AI犯罪不断衍生升级。
虽说“眼见为实”,但虚拟世界里的“眼见为实”却不一定真。如今,“AI(人工智能)换脸”图片和视频成为热门现象,AI换脸、拟声等技术,定制性强、应用场景广泛,不法分子作案手法多样,导致AI犯罪不断衍生升级。
2月27日,山西晚报记者从文水县公安局获悉,警方破获一起注册虚假空壳公司虚开增值税发票案,区别以往类似案件,犯罪分子在此案中竟然利用“AI换脸技术”完成了相关业务的注册工作。
骗子利用AI换脸技术注册虚假公司
“请眨眼、请张嘴”“人脸识别成功”……人脸识别验证技术,为人们的消费和生活带来了便利,但一些不法人员却盯上了它。
2024年12月,文水县公安局经侦大队联合税务稽查部门,对涉税案件线索深入研判,成功侦破利用AI换脸技术注册虚假空壳公司虚开增值税发票案,警方共计挽回税款42万余元。
目前,犯罪嫌疑人周某已被警方依法采取刑事强制措施,案件也在进一步侦办中。
民警介绍,“近年来,AI换脸诈骗成了骗子圈里的‘高科技新宠’,此案的侦破有效阻断虚开黑手,也对虚开犯罪形成有力震慑。”“AI换脸拟声”类诈骗是指不法分子以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、电话等方式联系消费者,采集发音、语句或面部信息。利用“换脸”“拟声”等技术合成消费者虚假音频、视频或图像,模拟他人声音或形象骗取信任,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后迅速转移资金。此外,不法分子还可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。
经了解,近期全国多地警方破获不少“AI换脸拟声”类犯罪案件。有人收到亲戚的视频电话借钱,画面里对方连村里的背景都一模一样,结果一核实竟是AI伪造的假脸假声;还有公司老板被AI合成的“好友”视频骗走430万元,整个过程只用了10分钟。“这些案例听着像电影情节,但现实中已多次发生,而且它就发生在我们的身边。”民警说。
步骤简单普通人几分钟便可“换脸”
普通人如果娱乐休闲或工作需要,使用“换脸”这项技术的“门槛”有多高?
采访中,记者向AI提出问题,“我想AI换脸,该如何操作?”几秒钟后,对方给出了详细的操作步骤。AI“表示”常用的AI换脸工具有:DeepFaceLab,特点为功能强大,适合专业人士;FaceSwap,特点为开源且易用,适合初学者;Avatarify,特点为实时换脸,适合直播或视频会议。
在准备数据环节,需要准备源视频及目标视频。大白话就是,你脸部的视频,和你打算换脸的视频。
以DeepFaceLab为例:在解压下载并安装软件后,便可使用软件从源视频和目标视频中提取脸部数据。随后,在DeepFaceLab中,运行脚本,选择合适模型,用提取的数据训练模型。训练完成后,再运行指定脚本,生成换脸后的视频或图片。此后的工作便是使用视频编辑软件调整颜色、亮度等,使换脸更自然。总结一下,AI换脸操作包括选择工具、准备数据、安装软件、提取脸部数据、训练模型、换脸和后期处理。如果你电脑性能不错,质量较低的“换脸”几分钟便可以实现。
同样是利用AI,犯罪分子“换脸拟声”诈骗又是怎么操作的?
简单说,骗子会从你的社交平台扒照片、视频,甚至用你发过的语音,通过深度学习算法“复制”出你的脸和声音。比如你发过一条“今天的天气真不错”的语音,AI工具只需3-4秒就能生成和你音色八成相似的克隆声。接着,骗子用这些素材合成一段视频通话:画面里,“你”穿着“微信朋友圈”里穿过的衣服,背景可能是在你家客厅。点击播放视频,你神情有点焦急,张口就说“我遇到点急事,你先给这个账户打点钱,具体事一会“说”。由于技术太逼真,不少人直接中招,特别是针对老年群体的诈骗,诈骗成功率可以说是接近100%。
突然问点“琐事”AI最容易“卡壳”
“我们现在都觉得打视频电话最稳妥,因为‘眼见为实’么,所以很多人不会想到视频中的‘亲人’‘朋友’‘领导’是经过AI伪装的骗子!”根据警方已经破获的相关案例来看,骗子“换脸拟声”后可能会冒充亲友、领导要求转账汇款,也可能冒充网红、富豪等诱导交友恋爱。最可恨的,他们还冒充公检法人员威胁恐吓老百姓。尽管AI骗局更难被识别,但只要你了解AI诈骗的套路和应对方法,也就不会上当了。
第一招:让“他”摸脸、捏鼻子,AI立马露馅
“如果视频里的人突然找你借钱,先别急着转。你可以要求对方先摸摸脸或者捏捏鼻子,这个要求听着好像滑稽,但测试AI是有效的。”真人的脸会被手挡住部分,但AI换脸技术遇到遮挡物就容易“穿帮”:画面可能出现水波纹、面部扭曲,甚至鼻子被捏住后毫无变形。警方实测发现,多数AI换脸视频用睁眼照片合成,假脸几乎不会眨眼。你可以故意说“你眼睛进东西了”,让对方频繁眨眼,真人的眼皮活动会更自然。
第二招:交流中,突然问点“琐事”
当骗子使用AI换脸拟声诈骗时,不管事先准备的“话术”多完善,也架不住你突然问个“琐事”。这些问题越具体越好,最好是仅你们私下知道的事情,比如“上回你请我吃饭,饭店叫什么名字?”“你家孩子的小名叫什么?”最好选没在社交平台提过的细节。警方表示,骗子能伪造脸和声音,但复制不了真实的人际记忆。
第三招:挂断再回拨,真假立现
“遇到借钱、转账等要求,立刻挂断,再用微信、手机号主动回拨确认。这个办法非常好用,但很多人不知道。”从事多年反诈工作的民警介绍,真正的视频通话是实时双向画面,但AI诈骗常用提前合成的单向视频,对方要是微信给你打过来的,你就通过手机号给他拨回去,很多骗局当场拆穿。需要提醒的是,如果是微信新加的“熟人”,务必检查账号是否一致——有骗子会注册高仿号,头像、昵称都和原主一模一样,但仔细看微信号差一个字母。
保持良好习惯莫让AI“看透”你
除了上述这三招,大家平时还要注意“捂紧”个人信息,莫让AI“看透”你。
从警方破获的相关案例来看,一些骗子目前已经开始利用AI,点对点分析公众发布在网上的各类信息。他们会根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。针对这个情况,我们在享受AI服务带来便利的同时,更应提高警惕,千万不能忽视潜在的隐私危机。
首先,大家在使用手机时,建议仅允许APP获取实现基本功能所需的必要权限。从位置信息到通讯录,从短信内容到浏览记录,这些看似无关紧要的权限收集,正编织一张张无形的隐私“捕捞网”。一旦这些信息被泄露,我们的隐私将面临巨大风险。不法分子可能借此实施精准诈骗,甚至对人身安全造成威胁。
其次,在常用的APP设置中,关闭“兴趣推荐”“个性广告”,要养成定期清理浏览记录和历史记录的习惯。一些APP看似贴心服务的背后,是AI算法对我们的深度挖掘与关联分析,过多的个性化推荐更是让我们深陷“信息茧房”。你认为自己只是接触感兴趣的内容,殊不知,是逐渐沉迷于AI定制的“舒适圈”。根据你的习惯,AI对你的“画像”将异常清晰,当这些数据被不法分子掌握时,你的“软肋”也将全面暴露在对方面前,而有针对性的诈骗也将紧随而来。
最后,加强个人信息保护意识,在AI高速发展的今天十分重要,因为互联网是有“记忆”的。正确的做法是,尽量减少在社交平台上发布个人信息图片、视频等内容,尤其是高清正脸照、证件照、工牌照。陌生人发的链接别随便点,防止手机被植入木马盗取照片。不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等。如果真遇到可疑情况,立刻拨打110或反诈专线96110。
再次重申,如果有人声称是“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以各种方式引导你转账汇款,请务必要提高安全意识,并通过电话、视频等多种方式确认对方是否为本人。因为多一次确认,关键时刻真能保住血汗钱。
山西晚报记者辛戈
来源:山西晚报