锐评|不能放任AI将所有名人变成骗子

B站影视 2024-12-12 17:44 1

摘要:“张文宏深夜带货?”近日,有网友发现,疑似知名医生张文宏正在售卖一种蛋白棒,家中老人不仅下了单,还广而告之、呼朋引伴。但仔细辨认可以发现,带货视频为AI合成。目前,这段视频已在该账号内不可见,但商品橱窗内显示这款蛋白棒已售出千余单。

北京日报客户端

“张文宏深夜带货?”近日,有网友发现,疑似知名医生张文宏正在售卖一种蛋白棒,家中老人不仅下了单,还广而告之、呼朋引伴。但仔细辨认可以发现,带货视频为AI合成。目前,这段视频已在该账号内不可见,但商品橱窗内显示这款蛋白棒已售出千余单。

随着AI技术突飞猛进,如今只要输入一段某人说话的视频,系统即可提取相关画面与嗓音特质,再输入自行设计的“台词”,AI版“分身”便能开始“表演”,包括诈骗。对AI技术有所了解的人,还能发现其中端倪,但对于很多老年人来说,这样的人造视频足以以假乱真。上述案例中,“知名医生+保健食品”的组合,显然是对老年用户的定向投喂。涉事账号是否违法违规,还需相关部门尽快查清真相。

这两年,名人被AI已成常态。“假靳东”迷倒一众大妈,“假雷军”辣评世间百态,种种乱象轻则为当事人带来困扰,重则催生诈骗案件。AI造假的人物也突破文娱、商业等领域,甚至波及了政要群体。“假拜登”公然宣布第三次世界大战开始,“假马克龙”直播回答“政府聘用灭霸”,“假岸田文雄”召开线上发布会等案例都曾令世界一片哗然。虽然声讨反思不断,但并未阻止AI造假的步伐,纯粹恶搞还是用以犯罪几乎在失控状态。

业界人士认为,当前AI技术发展来到螺旋式上升的拐点,未来几年技术迭代将会按月计算。合成技术门槛持续降低,逐渐向低算力、小样本学习方向演进,利用手机终端即可完成。同时,随着AI技术加持,正逐步由面部合成向全身、3D合成发展,效果更加逼真。也就是说,今后依靠一部手机,就能轻松合成一个覆盖全身的假视频,迷惑指数直线上升。2024人工智能安全报告显示,2023年基于AI的深度伪造欺诈增长了3000%,若不能有效打击,这个数字必然会继续飙升。

近两年,我国已相继出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等规定,让刚性治理有了更多抓手。当务之急是有法必依、执法必严,广而告之典型案例,提高震慑力度。广大平台更要守土尽责,强化AI标识提示,对越界视频及时下架、违法账号及时封禁。

“有图有视频,就是没有真相”,这将成为信息传播的灾难。如果与AI共存将是未来生活的常态,那么有效治理、打击犯罪必须大幅加码,不能放任AI为所欲为、一骗再骗。

来源:重庆日报

相关推荐