摘要:有人用AI把奥运冠军的声音和脸合成出来,骗人说他们在短视频里卖土鸡蛋,画面看着像真的,声音也跟本人差不多,好多老人信了,立马下单,骗子不用请专业团队,十分钟录段音,再找几张公开照片,就能做出逼真的视频,这种事不是第一次了,央视主持人李梓萌也被克隆过,拿去直播卖
有人用AI把奥运冠军的声音和脸合成出来,骗人说他们在短视频里卖土鸡蛋,画面看着像真的,声音也跟本人差不多,好多老人信了,立马下单,骗子不用请专业团队,十分钟录段音,再找几张公开照片,就能做出逼真的视频,这种事不是第一次了,央视主持人李梓萌也被克隆过,拿去直播卖神药,那东西连药监局的批文都没有。
这些骗子不是靠老人傻,是趁老人信电视里的人,觉得他们不会骗人,可现在技术太容易造假,连Deepfake和语音合成工具都能在网上花几十块买到,有人专门干这行,帮客户做“冠军带货”的视频,三小时能出五百条,平台封了一个账号,他们换个头像改个名字又回来,监管根本跟不上。
国家已经处理了几起案子,但还没出台统一规定要求AI内容打水印,平台也没建起名人声音和形象的官方备案库,哈佛大学做过实验,一百个六十岁以上的老人里,有十一个点开了AI伪造的紧急医疗通知邮件,社区养老中心没人教他们怎么分辨真假,宣传还是老一套,别点陌生链接。
幕后黑手是一些做短视频代运营的公司,他们打包卖AI名人模板,客户只要给个产品链接,就能自动生成直播视频,更奇怪的是,有些网红自己也买AI替身,用来同时开好几个直播间,这算不算盗用,法律还没说清楚,专家说要给AI装安全锁,可现在的法规对冒充身份没明确的惩罚标准,赔的钱比赚的少得多。
腾讯实验室去年弄了个工具,能听出AI合成声音里那点微小的延迟,可这工具只给大平台用,普通人根本用不上,想防骗只能靠自己留心,那些被克隆的名人,比如全红婵、李梓萌,压根不知道自己的声音和形象被人拿去骗人,名声被搅得乱七八糟,想维权也难得很。
技术越来越方便,可它也在悄悄拆掉我们对东西的信任,以前看新闻信电视台,看广告信明星,现在这些都能让AI捏出来,一个人的声音能被模仿,一张脸能被换掉,我们还能信什么,最怕的不是骗人那点事,是大家慢慢觉得假的也跟真的一样。
真正的受害者不是那些被骗了钱的老人,而是大家心里那点信任,连奥运冠军和央视主持人都能拿去卖鸡蛋、卖神药,还能信谁呢,光抓人没用,得提前防着,给公众人物建个官方的数字身份库,社区养老中心配个AI能筛风险的设备,别总喊小心上当,先让技术学会守规矩。
别等骗局满天飞了才醒过来,现在就得管住那些乱用AI的人,别让技术成了骗钱的工具。
来源:菠萝菠萝包
