摘要:2025年10月,OpenAI 发布的Sora2 文本生成视频模型引发广泛讨论。尽管官方在发布时明确提出“未经许可不得复制真实人物形象”,但仍出现了布莱恩·科兰斯顿(Bryan Cranston)形象被未经授权使用的案例。作为回应,科兰斯顿与SAG-AFTRA
一、事件背景
2025年10月,OpenAI 发布的 Sora2 文本生成视频模型引发广泛讨论。尽管官方在发布时明确提出“未经许可不得复制真实人物形象”,但仍出现了布莱恩·科兰斯顿(Bryan Cranston)形象被未经授权使用的案例。作为回应,科兰斯顿与 SAG-AFTRA(美国影视演员协会)联合向 OpenAI 提出关切,最终促成三方共同声明,宣布加强“防护栏”(guardrails),并引入 “Cameo”式自愿授权机制。
二、数据驱动的多平台舆情分析
新闻资讯平台(MSN、NBC、Variety、CNBC):报道集中于“合规更新”与“行业合作”,关键词为 guardrails、likeness protection。社交媒体(Twitter/X、Reddit、Facebook):讨论焦点在“名人肖像权保护”与“AI深度伪造风险”,相关话题阅读量在48小时内突破 1.2亿次。影视与创作者社区(YouTube、TikTok、哔哩哔哩):用户更关注“AI生成视频的创作边界”,相关视频播放量累计超过 5000万次。中文平台(知乎、微博、抖音):讨论集中在“AI合规与版权保护”,知乎相关问题浏览量超过 30万,抖音话题播放量突破 1.1亿。三、行业与合规意义
四、未来展望
短期:更多平台将引入“实名授权”机制,减少未经许可的肖像生成。中期:行业标准可能逐步形成,涵盖 技术防护、法律合规、行业自律 三个层面。长期:公众对 AI 内容的接受度将取决于透明度与合规性,平台的治理能力将成为核心竞争力。来源:大眼看AI