摘要:从网红博主到普通女性,从国内到国外,AI 换脸造黄谣的案例层出不穷。例如,一位名叫欧阳潇潇的女孩,在河北从事医疗相关工作,平时兼职模特。她被曾追求过她的李勇利用 AI 换脸技术制作淫秽视频并在 Telegram 群组传播,供人 “观赏” 和评头论足,甚至进行牟
AI 换脸技术本应是科技进步的体现,却被不法分子利用,成为了伤害他人的工具。近年来,AI 换脸造黄谣的现象愈发频繁,众多网红博主、普通人深受其害。
从网红博主到普通女性,从国内到国外,AI 换脸造黄谣的案例层出不穷。例如,一位名叫欧阳潇潇的女孩,在河北从事医疗相关工作,平时兼职模特。她被曾追求过她的李勇利用 AI 换脸技术制作淫秽视频并在 Telegram 群组传播,供人 “观赏” 和评头论足,甚至进行牟利。尽管李勇被治安拘留 10 天,但他出来后依旧潜伏在聊天室,类似的事件还在继续发生。
香港立法会多名议员也声称遭 AI 合成艳照勒索,警方已回应正跟进调查。发送者在电子邮件中自称私家侦探,受人委托对议员长期跟踪调查,邮件附有疑似 AI 生成的议员与裸女影片截图,并要求议员花钱消灾。
女博主一觉醒来,成了 “不雅视频” 女主角。拥有百万粉丝的网红博主自曝称自己的 “脸被偷了”,有人恶意用 PS 和 AI 换脸软件,制作她的不雅视频。还有中国台湾网红 “小玉” 涉嫌通过换脸技术制作不雅视频被捕,一年不法获利超千万台币。
又一网红自曝被换脸和造黄谣,“AI 盗脸” 背后似乎已成产业链。今年以来已有多名网红自曝称自己被 AI 换脸和造谣,法律人士表示造谣成本过低以及追溯造谣者有难度,导致此现象屡禁不止。
大四女生被造黄谣报警,因情绪激动入院。两名前室友对大四女生造黄谣,女生选择报警,希望法律能成为保护伞。
用 AI 犯罪,造黄谣只是开始。有人用 AI “一键脱衣”,伪造地铁裸照并搭配污言秽语在网络上传播;男网红用 AI 技术将自己与女明星合成亲热戏视频引发争议;科技博主用朋友的视频和语音合成新内容,让人细思极恐。
被 AI 盗脸 “造黄谣” 的林致,生活被彻底搅乱。她收到陌生人的微信好友请求,看到自己被 AI 换脸的淫秽照片和视频,陷入羞耻、愤怒、焦虑和恐惧之中。
韩国 “N 号房 2.0” 卷土重来,偷拍家人再用 AI 换脸制作成人视频,引起韩国女性的恐慌和愤慨,她们在微博等社交平台求助。
杭州的虞某利用 “AI 换脸” 软件生成大量淫秽视频进行传播,甚至提供换脸定制服务,最终被判处有期徒刑七年三个月,并处罚金 6 万元。
“AI 换脸” 合成淫秽视频出售,安徽一男子被起诉。
AI 换脸造黄谣的现象严重影响了受害者的生活和心理健康,也给社会带来了极大的危害。我们应该加强对 AI 技术的监管,防止其被不法分子利用,同时提高公众的法律意识和自我保护意识。
百万粉丝女网红 “小野” 和 “Caro 赖赖_” 均被 AI 换脸制成私密视频,引发大量黄谣和不良评论。小野在自己账号正常发布内容时,评论区出现许多奇怪留言,随着讨论人数增多,她才发现网上传播着关于自己的不雅视频,女主角被 AI 换脸成了自己。小野本不想占用公共资源,只想找出根源,但评论区大量网友传播甚至交换、售卖这些视频,尽管她已调查取证并警告传播者要承担法律责任,但事件仍在持续发酵。“Caro 赖赖_” 大约在半年前视频评论区就有人说看过她的 “视频”,起初她未回应,直到朋友发来截图和视频,她才意识到脸被盗用,深入了解后发现 “AI 盗脸” 背后似乎已形成完整产业链。
杭州虞某利用 AI 换脸软件生成大量淫秽视频进行传播,还提供换脸定制服务,获利数万元。2020 年浙江杭州的虞某接触 “AI 换脸” 软件后,为吸引流量,在社交软件上创建 “浏览群” 和 “私人定制群”。“浏览群” 传播换脸淫秽视频吸引观看者,有人提出 “定制换脸” 需求就引入 “私人定制群”。虞某根据视频长度、清晰度等收取费用,声称 “只要能看到脸的都能换”,客户定制对象既有公众人物也有普通人,甚至有人要定制暗恋女生的换脸视频。2023 年 11 月,虞某因制作、传播淫秽物品牟利罪被判处有期徒刑七年三个月,并处罚金 6 万元。安徽男子虞某用 “AI 换脸技术” 合成淫秽视频出售,根据顾客需求进行 “私人定制”。与杭州虞某类似,安徽男子虞某也利用 “AI 换脸技术” 合成淫秽视频出售,进行 “私人定制” 服务,通过这种非法手段获取利益。出现 “AI 脱衣” 黑色产业链,不法分子公开叫卖 AI 图集,甚至祸及未成年人。目前黑灰产平台上存在不少售卖网红、女星 “AI 脱衣” 照片群组,5 元可 “去衣”,20 元实现 “视频换脸”。有黑灰产从业者通过吸睛照片引流,再以 “会员群” 服务牟利。此外,B 站、小红书等平台还有视频作者以 “AI 脱衣教程” 等标题吸睛。北京警方曾侦破一起案件,某技术员宣称 “电脑 AI 去衣,白菜价” 并以此获利,最终被以传播淫秽物品牟利罪提起公诉。“AI 脱衣” 已形成产业链,包括售卖伪造图片、有偿 P 图、教授技术等,且黑灰产已盯上女网红、女明星等知名人物。不仅如此,AI 换脸技术还可能被不法分子用于欺骗、诱导未成年人。快手自 6 月 28 日起开展为期 2 个月的未成年人暑期网络环境专项治理,对涉未成年人不良信息从严从重处置,其中就包括利用 “AI 换脸”“AI 绘图”“AI 一键脱衣” 等技术发布涉未成年人有害信息,以及欺骗、诱导未成年人等行为。男子李某某还利用 AI 换脸合成受害者裸照图,胁迫多名未成年被害人给自己发送裸照和视频,已构成猥亵儿童罪、强制猥亵罪,被判刑五年六个月。西班牙也发生一起利用 AI 的深度伪造技术制作少女裸照的事件,至少有 28 名 11 岁至 17 岁的少女成为受害者,当地警方展开调查,锁定嫌犯为 11 名未成年男孩。这些青少年用名为 ClothOff 的 AI 应用程式制作裸照并在社交平台传播,该应用声称用户需年满 18 岁或获得父母、法定监护人许可,但实际上很多未成年人在使用,且制作的裸照效果极其逼真,在网上疯传后给受害者造成极大伤害。
对受害者来说是精神折磨和人格践踏,个人隐私泄露,引发不安与恐慌。AI 换脸造黄谣对受害者的伤害是巨大的。首先,受害者会遭受精神折磨和人格践踏。当看到自己的脸被恶意换脸到淫秽视频中,那种羞耻和难堪难以言表。就如林致在收到陌生人发来的 AI 换脸淫秽照片和视频后,陷入了羞耻、愤怒、焦虑和恐惧之中。同时,个人隐私的泄露也让受害者陷入不安与恐慌。他们可能会收到各种 “求交友” 的陌生人请求,不知道自己的照片还会被传播到何处,也不知道身边是否还有潜在的危险。而且,受害者的照片很多是被熟人盗用,这让他们对周遭的环境失去信任,时刻担心自己成为下一个被攻击的对象。
取证困难,受害者处于弱势和被动,同时也让人担心自己成为下一个被换脸的对象。AI 换脸造黄谣的取证十分困难。一方面,制图者和传播者大多借助国外社交软件发布信息,且软件具有 “阅后即焚” 功能,这让受害者和警方难以获取证据。另一方面,AI 技术的使用门槛和创作成本不断下降,换脸越来越逼真,这让受害者在与造谣者的斗争中处于弱势和被动。例如,苏州大学一学生恶意 P 图侮辱女性,受害女生经过长时间追查、锁定证据后向公安机关举报,虽然赵某某最终被处拘留并开除学籍,但受害者为了锁定证据付出的时间、精力以及在此过程中反复遭受的精神伤害巨大。这种局面让人担忧,谁能保证下一个被换脸的人不是自己呢?
AI 换脸造黄谣侵害当事人多项权利,还可能涉嫌刑事犯罪,如制作、传播淫秽物品牟利罪等。此外,犯罪分子还利用 AI 换脸冒充熟人实施诈骗。AI 换脸造黄谣侵害了当事人的多项权利。首先,它侵犯了当事人的肖像权、名誉权、隐私权。例如,一些不法分子利用 AI 换脸技术制作淫秽视频,未经当事人同意使用其肖像,严重侵犯了肖像权。同时,这些淫秽视频的传播也损害了当事人的名誉权,让他们的社会评价降低。此外,个人隐私的泄露侵犯了当事人的隐私权。其次,AI 换脸造黄谣还可能涉嫌刑事犯罪。像杭州的虞某利用 “AI 换脸” 软件生成大量淫秽视频进行传播,甚至提供换脸定制服务,最终被判处有期徒刑七年三个月,并处罚金 6 万元。安徽一男子也因用 “AI 换脸技术” 合成淫秽视频出售被起诉。不仅如此,犯罪分子还利用 AI 换脸冒充熟人实施诈骗。例如,一名中国香港的职员在一场 “多人视频会议” 后被骗 2 亿港元,最后发现这场视频只有他自己是 “真人”,其他人都是 AI 换脸冒充的。还有冯天被 “表哥” 用 AI 换脸技术诈骗 30 万元等案例。这些诈骗行为不仅威胁人们的财产安全,更让人对 “眼见为实” 的认知产生动摇和困惑。
做好个人信息安全第一责任人,加强个人信息保护意识,不轻易提供个人生物信息,不点击陌生链接等。在这个信息时代,我们必须时刻保持警惕,守护好自己的个人信息。首先,要加强个人信息保护意识,防止信息泄露。切勿轻易提供人脸、指纹等个人生物信息给他人,这些信息一旦落入不法分子手中,可能会被用于各种恶意目的。同时,也不要轻易透露自己的身份证、银行卡、验证码等重要信息,更不能贪图方便把身份证、银行卡照片等直接共同存放于手机内。如果发现 APP 过度、强制收集个人信息,应及时至 12321.cn 投诉。此外,陌生链接不要点,陌生软件不要下载,陌生好友不要随意添加,不明二维码不要随意扫描。管理好自己的朋友圈,也不要轻易向陌生人开启手机屏幕共享。做好个人防护,安装安全软件,防止手机和电脑中病毒,对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ 等被盗号给亲朋好友带来麻烦。对于不常用的 APP,建议卸载前注销个人帐号,若 APP 不提供个人帐号注销方式,或为注销帐号设置各类障碍,可至 12321.cn 投诉。
远程转账务必多重验证,对各种诱导转账汇款的理由提高警惕,通过额外通信方式核实确认。在涉及转账汇款时,一定要格外谨慎。如果有人自称 “家人”“朋友”“老师”“领导” 通过社交软件、短信、电子邮件等以各种理由诱导你转账汇款,务必第一时间提高警惕。这些理由可能包括 “手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游,需要帮忙买机票”“给领导办私事,需紧急转账”“遭遇车祸,需要马上手术”“情况特殊,需要过桥资金拆借” 等。在 AI 时代,文字、声音、图像和视频都有可能是深度合成的,所以不能仅凭单一沟通渠道未经核实就直接转账汇款。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,无论对方是谁。如果遭遇诈骗信息,可至 12321.cn 反诈专栏举报,如发生资金损失请及时报警。
提高自身安全风险意识,观察视频细节验证真实性,通过可靠方式确认对方身份。若发现被换脸,要做好预防工作,加强个人信息防范保护,采用技术检测、增加身份认证和数字水印等方式,同时加强法律法规和监管制度的落实执行,提高公众安全意识。提高自身安全风险意识至关重要。在接收到视频通话等视频信息时,要仔细观察对方视频中的光线背景、面部轮廓等细节是否自然,如有必要,可以要求对方进行快速的抬头、低头、左右转头等动作,观察画面是否存在异常,进一步验证视频的真实性。在面临转账汇款等金融交易时,可通过其他相对可靠的方式,例如亲自打电话等确认对方身份,以确保交易信息无误,避免因轻信虚假信息而遭受损失。如果发现自己被换脸了,首先要尽量做好预防工作。加强对个人信息的防范保护,对人脸信息、指纹信息等敏感信息需求要提高警惕,不要轻易泄露。在技术层面,可以采用人工智能检测的方式来识别视频内容是否有伪造,还可以增加身份认证和数字水印,加大伪造难度。另外从安全防护角度来讲,需要加强法律法规和相应监管制度的落实和执行,来规范 “AI 换脸” 技术的使用方式和应用场景。在法律方面,需加快相关法律法规及监管措施的制定与落地,如果发现了照片被仿冒,需要有一些可以投诉的法律途径,同时还需进一步加强对公众的安全意识和防范诈骗的宣传,提高大家对虚假诈骗信息的认识和警觉性。用户使用 “AI 换脸” 技术尽量选择大公司、大平台推出的产品,尽量不通过来路不明的渠道上传自己的个人信息。
此外,还可以通过一些简单的方法来防范 “AI 换脸” 诈骗。比如,让对方用手指或者其他遮挡物在脸前晃动,如果画面出现类似果冻效应或者抽搐,那对方很可能正在使用 AI 换脸技术;可以询问对方一些私密的问题,通过询问对方自己的生日、电话、喜好等等,来确认对方的身份;要求对方线下见面,凡是对方提到转账、借钱等涉及经济往来的,为安全起见,可以要求对方线下见面。在家人、朋友之间约定好特定的 “暗号”,尤其是在涉及到钱财交易方面,通过 “暗号” 相互确认。尽量不要在社交媒体上发布个人与家人相关照片、语音、视频等,以防被不法分子利用。
五、总结AI 换脸造黄谣是技术被滥用的恶例,给个人和社会带来严重危害。我们应提高警惕,加强防范,同时完善法律法规,规范技术使用,共同守护良好的网络环境。
AI 换脸造黄谣的现象层出不穷,严重影响了受害者的生活和心理健康,也给社会带来了极大的危害。为了防范 AI 换脸造黄谣,我们可以从以下几个方面入手:
首先,做好个人信息安全第一责任人。加强个人信息保护意识,不轻易提供个人生物信息,不点击陌生链接等。管理好自己的朋友圈,不要轻易向陌生人开启手机屏幕共享。安装安全软件,防止手机和电脑中病毒,对个人账户的安全状况保持警惕。
其次,远程转账务必多重验证。对各种诱导转账汇款的理由提高警惕,通过额外通信方式核实确认。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。
最后,提高自身安全风险意识。观察视频细节验证真实性,通过可靠方式确认对方身份。若发现被换脸,要做好预防工作,加强个人信息防范保护,采用技术检测、增加身份认证和数字水印等方式,同时加强法律法规和监管制度的落实执行,提高公众安全意识。
完善法律法规是规范 AI 换脸技术使用的重要保障。目前,我国已经出台了一些相关法律法规,如《网络安全法》《个人信息保护法》等,但对于 AI 换脸技术的规范还不够完善。我们需要进一步加强对 AI 换脸技术的立法,明确其使用范围和限制,加大对违法行为的处罚力度。
规范技术使用是防范 AI 换脸造黄谣的关键。技术本身没有善恶之分,但技术的使用却可以带来不同的后果。我们应该加强对 AI 换脸技术的监管,规范其使用方式和应用场景,防止其被不法分子利用。同时,我们也应该鼓励技术创新,推动 AI 换脸技术在合法、合规的领域发挥积极作用。
共同守护良好的网络环境是我们每个人的责任。网络空间是我们共同的家园,我们应该共同努力,营造一个安全、健康、和谐的网络环境。我们可以通过加强网络安全教育,提高公众的网络安全意识和防范能力;可以通过加强网络监管,打击网络违法犯罪行为;可以通过加强国际合作,共同应对网络安全挑战。
总之,AI 换脸造黄谣是一个严重的社会问题,我们应该提高警惕,加强防范,同时完善法律法规,规范技术使用,共同守护良好的网络环境。
来源:走进科技生活