无中生出一张脸,AI时代,眼见未必为实

B站影视 电影资讯 2025-09-16 18:49 1

摘要:眼睛是大还是小、鼻子是挺还是塌、嘴唇是厚还是薄……独特的五官特征构成了一张张独一无二的脸,让人类有了专属于自己的标签。它让我们能在茫茫人海中分得出自己的家人、朋友,可你敢相信吗,有一天,你最为熟悉的脸却可能将你拉进诈骗的深渊……他还是他,但又不是他……这,就是

眼睛是大还是小、鼻子是挺还是塌、嘴唇是厚还是薄……独特的五官特征构成了一张张独一无二的脸,让人类有了专属于自己的标签。它让我们能在茫茫人海中分得出自己的家人、朋友,可你敢相信吗,有一天,你最为熟悉的脸却可能将你拉进诈骗的深渊……他还是他,但又不是他……这,就是人工智能(AI)技术驱动的AI换脸。

技术本身没有好坏,关键在于如何使用

基于AI换脸,你能轻松变成任何明星;能让任意一个人说出你想说的话;甚至,还能通过一句简单的指令凭空生成一张脸、一个人。随着AI技术的快速迭代升级,“无中生有”的脸已然真假难辨。

▲通过某AI软件生成的人物形象

事实上,“换脸”技术并非新近的产物,它已与我们共存长达两个多世纪。

早在19世纪的胶片时代,“P图”就已经实现了。彼时,虽然没有强大的一键美颜功能,但技术师傅可以在暗房冲洗阶段实现对照片的“二次创作”。进入21世纪,随着互联网的应用与普及,人们又开始探索通过专业软件(如Photoshop等),对图像进行修改,从而实现美观程度更高的“换脸”。近年来,随着AI技术的快速发展,从提供一张照片,实现照片“换脸”;到提供一张照片,实现视频“换脸”;再到提供一段指令,生成一张不存在的人脸,“换脸”越来越简单。

“未来,随着AI技术的持续发展,想要实现‘换脸’,用户所需要的动作会越来越少,而生成的视频逼真程度和丰富程度,以及人们的认可程度都会越来越高。”周琳娜表示。

然而,技术的发展从来都是一把“双刃剑”,AI换脸技术普及与应用所带来的负面影响,甚至催生出的违法产业日渐显现。

通过AI换脸蓄意抹黑公众人物形象、传播虚假广告、进行诈骗……不法分子对于AI换脸技术的滥用不胜枚举。

以前段时间流量很高的天坛网红大爷为例,他以幽默的谈吐和在天坛公园锻炼的视频“火出圈”,可却被“换脸”成了一位90多岁的患癌老人,做起广告带货——卖一本“抗癌秘方”的书,对他的生活产生了极大的影响。

“可AI换脸或者说AI技术走到我们身边,本身并不是用来诈骗的。”周琳娜表示。“科技就像我们的工具,本身并没有好坏,关键在于如何使用。”

AI换脸,对应的学术名词为“DeepFake”,是由Deep Learning(深度学习)和Fake(伪造)两个词组成的,一种兴起于2017年左右、比较典型的AI技术。

这一技术本身具备较强的先进性,并为我们的生活带来了很多积极影响。比如在影视领域,如果某影星拍完了一部50多集的电视连续剧,但是由于个人原因,造成了不好的社会影响,甚至入狱,那么就可以通过AI换脸的方式,实现电视剧的播出。对于公众而言,通过AI换脸或者元宇宙,我们可以再次与故去的亲人“见面”甚至“对话”。此外,AI换脸还能满足娱乐等其他需求。

AI换脸的三种类型

那么,AI换脸究竟是如何实现的?

“主要有两种实现方式,一种是基于生成对抗网络的AI换脸,另一种则不是对整张脸进行替换,而是对脸的局部进行操控。比如利用某一段音频、话语,操控视频中人脸的嘴部动作。这种方法又叫Wav2Lip。”周琳娜介绍。

▲基于生成对抗网络的AI换脸实现过程

▲Wav2Lip实现过程

通过以上两种方式实现的深度伪造换脸技术主要有三类:第一类是面部合成(Face Morph),通过找出人脸的关键点进行检测,然后把一张脸和另外一张脸的关键点进行重叠,达到无缝融合的效果。这类换脸技术在图像中应用广泛,是早期学术界论文涉及较多的技术。

第二类是人脸交换(Face Swapping),如果说面部合成是合成一张不存在的人脸,那么人脸交换就可以把任意人脸交换到想换到的人脸上。比如亲人要钱的骗局,就是不法分子将你的亲人的脸换到了他们想要利用向你要钱的人的脸上。

“可能大家会认为,这种视频通话是无法造假的。但其实,这种人脸交换视频几乎感觉不到延迟。我们的团队就已经实现了将这种人脸交换视频的延迟控制在零点几秒以内。”周琳娜表示。

第三类是人脸操控(Face to Face),即在视频中实现表情或面部转移的过程。其重点在于对目标人物的面部表情进行识别,而后依据摄像头捕捉的发音情况,进行面部模型的篡改,再配合音频合成伪装。

“人脸操控并不改变视频中人的脸部内容,但是可以将操控者的脸、所有的表情、嘴部眼部动作,转移到被操控者的脸上,从而说出操控者想说的话,或者做的表情。”周琳娜补充道。

上述三种换脸技术的实现都需要有照片、视频等输入,大模型经过训练后,才能够产出换脸后的内容。然而,随着生成式人工智能(AIGC)技术的快速发展,只需要一张照片,然后输入一些目标任务的描述提示词,就能生成一张根本不存在的脸;甚至没有照片,仅通过提示词,就能生成一个全新的人物,去完成一段影片的演绎。

当眼见不再为实,我们该怎么做?

中国有句古话,眼见为实,耳听为虚。在AI时代下,既然眼见都不一定为实,我们该如何避免落入AI换脸的“陷阱”呢?

实际上,并非无计可施。

“人脸交换和人脸操控都是2013年以前的技术,用其实现的换脸或者生成的视频,是可以从细节上加以辨别的。”周琳娜介绍。

她举例道:如果训练者输入的照片或视频中,眨眼或者闭眼的内容比较少,那么生成的视频就不是很自然,人物可能就没有眨眼的动作;此外,如果输入的照片或视频的分辨率较低,那么生成的视频就可能存在细节方面的瑕疵,比如说两只眼睛的瞳孔颜色不一致、牙齿边缘过于整齐、细节不明显,或者存在伪影,等等。

而对于AIGC技术生成的视频,她表示需要通过专业手段和方式进行鉴别。“但这种造假的成本比较高,因为它需要较高的算力,并且需要A100这种专业级显卡。”周琳娜补充道。

除用户层面外,为规范AI换脸技术的发展,世界各国都进行了积极有力的探索。早在2019年9月,Facebook、微软、美国麻省理工学院等就联合启动了Deepfake视频检测挑战赛。同年11月,Twitter发布了首个反Deepfake策略草案,表示如果Deepfake内容威胁到某人的人身安全或可能造成严重伤害,他们会将该内容从Twitter上删除。

我国也陆续出台相关措施进行有力监管。2019年11月,国家互联网信息办公室印发《网络音视频信息服务管理规定》,要求网络音视频信息服务提供者应当加强对网络音视频信息服务使用者发布的音视频信息的管理,部署应用违法违规音视频以及非真实音视频鉴别技术。2025年3月,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局制定了《人工智能生成合成内容标识办法》(以下简称办法),对人工智能生成合成服务的提供者和用户提出了明确要求。

其中,服务提供者提供生成合成内容下载、复制、导出等功能时,应当确保文件中含有满足要求的显式标识。用户使用网络信息内容传播服务发布生成合成内容的,应当主动声明并使用服务提供者提供的标识功能进行标识。

对于国家出台的监管措施,周琳娜认为,“是公平且有效的手段,不仅能够保护青少年等容易被误导的群体的权益,也有利于社会秩序的建立,还将为技术的健康发展营造良好的环境。”

除了约束AI生成合成内容服务提供者、传播者、用户,周琳娜介绍,我国也在积极探索数字水印技术的实现。

“这是为了从底层架构上进行规范,从而更好地通过技术手段明确责任方。”周琳娜介绍。“AIGC技术产出相关内容时,都基于特定的模型基座。我们正在探索,是否能在大模型输出内容时就打上水印。这种方法可以追溯至模型基座的生产商,从而进一步从源头上规范AI生成内容,助力AI技术健康有序发展。”她表示。

她同时提醒,公众个人下载换脸软件时,一定要认真阅读用户协议,明确权利和义务,避免使用软件可能产生的侵权、违规风险。此外,她也呼吁AI软件厂家,应肩负起对于篡改或者伪造视频的责任,并主动了解发布及传播相关内容可能产生的后果。“通过各方努力,共同助力AI健康生态的建立。”周琳娜表示。

采访专家:北京邮电大学网络空间安全学院教授 周琳娜

撰文:记者 贾朔荣

来源:北京科技报一点号

相关推荐