“陈奕迅去世”又是TA传出来的!多位明星已受害!

B站影视 欧美电影 2025-05-20 09:14 2

摘要:5月18日晚,大量有关“陈奕迅去世”的传闻在社交媒体不胫而走。5月19日凌晨,歌手叶晓粤发文澄清,陈奕迅去世是假新闻!更表示自媒体造谣毫无底线,恶心至极!

5月18日晚,大量有关“陈奕迅去世”的传闻在社交媒体不胫而走。5月19日凌晨,歌手叶晓粤发文澄清,陈奕迅去世是假新闻!更表示自媒体造谣毫无底线,恶心至极!

5月15日,陈奕迅发文表示因病暂停演唱会,不料3天后就传出他“因病去世”的传言。这则传闻是谁“制造”的?

5月18日下午“陈奕迅”去世传闻传出时,就有博主直言消息是假的。

有着34.7万粉丝、IP地址为中国香港的电影博主“誓要抢包山”在5月18日18时21分提到,因为有网友私信求证,自己去搜索了港台媒体和社交平台,“均无此消息”,“唯一的来源就是youtube博主台山TV”。他还指出,“台山TV”曾造谣过成龙去世。

记者查询后发现,“陈奕迅去世”的谣言源头是YouTube账号“台山TV”发布的一则长达9分27秒的视频,但视频内容基本为拼接陈奕迅旧照片+粤语AI配音,并无任何有效信息。

多位明星深受“AI之害”

近年来,AI技术发展迅速,在提高生产力和创新力的同时,也为不少人带来新的烦恼,AI谣言和AI“假人”相关新闻层出不穷,不少明星、艺人等公众人物深受其害!

不久前,演员孙俪的女儿获得了拉丁舞冠军,一些自媒体以此为“契机”,发布与邓超、孙俪相关的虚假广告宣传视频。这类视频通过技术合成的方式,将邓超、孙俪的形象和声音制作成虚假采访视频,为某些商家的产品进行推荐。

5月18日,邓超、孙俪夫妇工作室接连发文“打假”AI虚假广告,称“凡此类自媒体账户所发布的产品推荐视频均为虚假信息,请网友一定不要相信,避免上当受骗 ”。

此前、刘晓庆、古天乐、林峯等明星艺人也曾针对AI“假人”视频公开辟谣。

去年12月,网络上出现了国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏的带货视频。今年3月,某短视频平台多个账号发布“刘德华为哪吒冲票房”的视频。同样是今年3月,有自媒体发布用AI生成的刘晓庆语录视频,就连刘晓庆本人都被惊住了:画面是我,声音很像我,但不是我!这是怎么做到的?

事实上,这些视频都是素材拼凑和用AI伪造的。

多方呼吁整治AI乱象

今年全国“两会”期间,靳东、陈达等人均呼吁在立法层面加强对AI技术的监管。

“一些喜欢我影视剧的观众,被AI换脸视频骗得很惨,这个性质非常恶劣。希望能建立更好的规则。”靳东说。

陈达则表示,立法监管不仅是对AI技术的约束,更是对它健康发展的一种保障。通过立法明确AI技术的使用范围和条件,可以引导企业和社会各界在合法合规的框架内发展AI技术,推动“科技向善”,让技术更好地服务于社会。

雷军也是被“AI换脸拟声”恶搞过的“受害者”,他呼吁尽快立法整治“AI换脸拟声”乱象。

雷军在建议中指出,人工智能(AI)深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域广泛兴起,成为社会喜闻乐见、传播力强、易成热点的技术应用。但同时,“AI换脸拟声”不当滥用造成了违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,甚至造成难以挽回的大规模形象和声誉损害,带来社会治理等风险。

观察人脸是否变形

已知的Deepfake技术能仿冒人脸做出表情,但还不能仿冒人脸在受到外部压力时产生的变形。所以,在视频通话时,如果怀疑遭到了Deepfake欺诈,可以要求对方用食指按压一侧的鼻翼,或按压一侧的脸颊。

口型与内容同步失真

深度伪造技术很难将嘴部动作与其语音内容自然同步,尤其是当这段语音也是AI生成的时候。

视频故障与伪影现象

AI视频生成器制作的视频时常会出现一些异常的故障和伪影。比如,当摄像头向树叶靠近时树叶会出现闪烁,或者背景中行走的人物的帧率与视频其他部分不一致。

不符合物理学逻辑

摄像机能够记录现实世界,是因为其镜头与传感器能够精准捕捉现实场景。AI视频生成器则是基于之前的训练来创造视频,缺乏对背景信息的全面理解,因此在某些情况下会导致其生成的视频不符合物理学规律。

身体部位有异常

AI视频生成模型似乎无法准确识别人类的四肢数量,虽然它能将四肢在不同画面帧中的移动轨迹联系起来,但无法完全理解在整个场景里四肢应保持一致性这一原则。因此,一些视频中会发生手臂、腿和手反复出现和消失的现象。

事态发展不合理

多余的肢体揭示了这些AI模型实际上并不理解真实的世界,它们只是根据训练的数据集来复制给它们的提示。例如,它们知道阿马尔菲海岸的小镇应该布满石阶,但它们似乎并不理解这些石阶必须通向某个具体的地方。

用AI来识别AI

除了肉眼分辨,用AI来识别AI生成的内容也是热门的研究方向。例如,合成视频可能在帧与帧之间存在不连续性,进行时序一致性分析就可能发现异常。另外,人的心脏跳动会导致皮肤出现和脉搏节律一致的细微色彩变化,通过这种色彩变化可以获取脉搏信息,Deepfake的视频可能没有这种特征。

来源:智慧生活报

相关推荐