摘要:一条AI仿冒视频中,侃侃而谈的专家,商家称是北京协和医院临床营养科主任于康教授,他是我国营养与健康领域的权威专家。记者在小红书、微信视频号上,刷到了不少,以于康教授形象出镜的科普视频,介绍和推销减肥食谱。记者随后联系北京协和医院调查核实。于康教授明确表示,他本
一条AI仿冒视频中,侃侃而谈的专家,商家称是北京协和医院临床营养科主任于康教授,他是我国营养与健康领域的权威专家。记者在小红书、微信视频号上,刷到了不少,以于康教授形象出镜的科普视频,介绍和推销减肥食谱。记者随后联系北京协和医院调查核实。于康教授明确表示,他本人从未参与录制此类视频。(11月17日 《现代快报》)
如今,人工智能技术已经深入到公众生活的方方面面,正在重塑社会生活的方式。理性而言,人工智能技术是一种工具,没有善与恶的区分。正因如此,怎样让技术向好向善,引导人工智能技术应用符合人类生活的价值观,去辅助人们去创新和创造,目前已经成为全社会所关注的重要议题。
技术始终是中立的,但其应用却裹挟着伦理选择。毋庸置疑,AI生成合成技术的初衷,是为内容创作、知识传播提供便捷,让医疗科普更生动、健康知识更易普及。然而在利益驱动下,这项技术被异化为“造假工具”:仅需几张照片、几句文案,30秒就能伪造出“专家背书”的视频,甚至可抹去AI生成标识,让虚假内容以假乱真。这种“技术滥用”的本质,是对社会基本伦理的践踏,盗用他人形象侵犯肖像权与名誉权,传播虚假健康信息误导消费者,破坏的是公众对权威的信任,消解的是整个社会的信任基础。
《聊斋志异》中的“画皮”在现实世界上演,“魔幻现实主义”的具象衍生的社会性恐慌显而易见。当AI仿冒内容充斥社交平台,营养学界长期的科普努力付诸东流,错误健康认知卷土重来,最终损害的是千千万万受众的切身利益,这与技术服务社会的伦理初衷背道而驰。
技术伦理的失守,往往伴随着监管与自律的双重滞后。从伦理自律层面看,部分技术开发者只追求“功能强大”,却忽视了技术应用的风险预警……免费换脸App、AI文生视频工具无差别开放,未设置“禁止伪造他人形象”的技术屏障,也未履行“风险提示”的社会责任,变相为侵权行为提供了便利。制度层面,技术迭代速度远超规则更新,尽管《人工智能生成合成内容标识办法》已明确AI内容需加标识,但“显性标识易被规避、隐性标识难追溯”的现实,仍让伦理失范者有机可乘;而技术鉴定难、证据固定难、溯源追责难的困境,进一步导致伦理底线的失守。
破解AI仿冒营销的伦理困局,需要“技术向善”与“制度护航”双管齐下。在技术层面,开发者应将伦理考量嵌入技术设计全流程,设置“伪造他人形象需授权”的强制校验机制,对涉及医疗、健康领域的AI内容增加“风险审核”环节,从源头遏制技术滥用。同时,需强化《人工智能生成合成内容标识办法》的执行力度,对未加标识、仿冒他人形象的行为提高处罚标准,让伦理失范者付出沉重代价;社交平台更要承担起“守门人”责任,通过AI识别技术筛查虚假内容,对违规账号从严处置,不让平台成为伦理失范的“盛宴”。
AI技术的价值,永远取决于使用它的人。唯有将“尊重个体权益、维护公共利益”的伦理准则,内化为技术开发的自觉、监管执法的标尺、平台运营的底线,才能让AI技术真正成为服务社会的“善器”,而非侵蚀信任的“利器”,让数字空间回归健康、有序的伦理轨道。(樊树林)
来源:东南网
