摘要:“奶奶,我不小心撞了人,千万别让爸妈知道,快救救我!”听到电话那头“孙子”的声音,湖南的刘奶奶立即将3万元现金交给了骗子假扮的“所长亲戚”。据报道,骗子利用AI换声、换脸冒充亲友实施诈骗日趋多发,且诈骗对象多为老年人。诈骗分子通过AI技术伪造身份,再以类似“孙
辛音
“奶奶,我不小心撞了人,千万别让爸妈知道,快救救我!”听到电话那头“孙子”的声音,湖南的刘奶奶立即将3万元现金交给了骗子假扮的“所长亲戚”。据报道,骗子利用AI换声、换脸冒充亲友实施诈骗日趋多发,且诈骗对象多为老年人。诈骗分子通过AI技术伪造身份,再以类似“孙子惹祸,急需用钱”等理由向老人实施诈骗。
“骗子声音、语气与家人一模一样,打的是家里固定电话,还能说出假冒家人的名字。”盗用亲人声音,是利用血脉间的天然信任,卸掉老人的防备。编造紧急困境,是制造安全焦虑,突破老人心理防线。长辈对儿孙毫无保留的爱,成了此类骗局得逞的筹码;不熟悉新技术、信息渠道有限的老年人困境,成了骗子敛财的利刃。AI合成技术支撑下,一个个精心伪造的“亲情局”,既侵害老年人财产、伤害亲人情感,更粗暴践踏着社会信任和法律底线。
近年来,在给社会带来便利的同时,AI技术也给老人生活埋下新型安全隐患。随着音视频伪造技术门槛降低,对老人的诈骗手段远不止亲情围猎。直播间里,穿着白大褂的“AI医生”兜售包治百病的神药,侃侃而谈的“AI专家”推销延年益寿的容器,妆容精致的“AI明星”编织真情告白的谎言……花样的骗局,迷惑认知、延误病情,既忽悠情感,又掏空钱袋,简直是全方位侵蚀老人的身心健康和财产安全。
AI骗局越来越猖狂,离不开黑产链助推。据报道,AI诈骗“亲情局”的起点,通常是大量隐私信息泄露。只有获得受害人通讯录、照片、声音等关键信息,诈骗分子才有机会用AI“装孙子”。更令人担忧的是,人们印象中需专业团队才能操作的换声换脸技术,用不了一杯奶茶钱就能实现。社交平台上,相关教程与链接随处可见,标价更低至1元。廉价且易得的“教程”,降低了施诈的技术门槛,给诈骗分子提供了精准“弹药”,甚至“量身定制”诈骗套路,让人防不胜防。
让老人免受AI诈骗侵害,不能只靠个人提高警惕,更要从源头断链、多方协力。泄露公民隐私触犯民法典和刑法中的隐私权、个人信息保护等规定。未经许可使用他人照片或声音素材换脸或换声、在网上提供AI换脸或换声服务并收费、抑或假冒权威人士等,则涉嫌侵犯他人肖像权、声音权,甚至构成刑事犯罪。监管应跑在技术前面,对AI合成内容的使用边界、数据采集权限、黑产打击力度提出更高要求。平台也需进一步加强内容审核,主动清理“1元换脸”等服务。
给技术运用划清安全红线,给使用技术的人明确行为底线,AI才不会成为诈骗帮凶。杜绝AI克隆声音、伪造面容等行骗,既是技术向善的基本要求,也是数字时代保障银发群体安心生活的关键。
来源:北京日报客户端
