摘要:今天凌晨,OpenAI 视频生成工具 Sora 的内测版本遭到泄露,起因是部分早期测试人员(艺术家)对 OpenAI 产生了不满。
Sora 就这么水灵灵地用上了。
今天凌晨,OpenAI 视频生成工具 Sora 的内测版本遭到泄露,起因是部分早期测试人员(艺术家)对 OpenAI 产生了不满。
艺术家用「最极端」的方式,换来了最短暂的普惠时刻。
网友曝出的公开信显示,OpenAI 邀请了数百名艺术家参与 Bug 测试、反馈和实验工作。尽管这些艺术家无偿贡献了大量作品,但最终只有少数人的 Sora 作品能通过竞赛入选展映。
▲网址:http://huggingface.co/spaces/PR-Puppets/PR-Puppet-Sora
并且,相较于 OpenAI 借此获得的巨大公关和营销价值,他们给予艺术家的报酬微乎其微。
他们感觉自己陷入了一场「艺术洗白」活动,每件作品在分享前都需经过 OpenAI 团队审批,忽视了他们的创造性表达和评论的诉求。
艺术家想要的是创作自由,OpenAI 给的却是有条件的展示机会,甚至沦为了 Sora 的背书工具。
愤怒之下,部分艺术家在全球最大的开源社区平台 Hugging Face 上泄露了 Sora 的 API,导致该工具短暂对外开放了数小时。
艺术家们在公开信中还写道:
我们发布此工具是为了让所有人都有机会体验约 300 位艺术家所获得的东西:免费的无限访问权限。
我们并不反对将 AI 技术用作艺术工具(如果我们反对,就不会被邀请参与该计划)。
但我们不赞同的是,这个艺术家计划的实施方式缺乏对艺术家的友好支持,并且工具的开发方向在可能的公开发布前更偏向于企业利益。
我们希望通过与世界分享这些信息,OpenAI 能超越公关噱头,变得更加开放。
从目前泄露的信息来看,Sora 支持生成 1080p、720p、360p 三种分辨率的视频,时长支持 5-10s。
并且模型的代号为 Turbo,此前外媒 The Information 报道称,Sora 存在多个版本的模型,所以不排除 Sora 在正式发布时会有其他更高/低级的版本。
事件发生后,OpenAI 迅速采取行动,关闭了所有邀请访问权限,并对其 Discord 频道实施了禁言措施。
尽管开放时间仅有短短数小时,但已有用户疑似通过 Sora 生成了大量视频,让我们一起来看看这些作品。
还记得那个走在东京街头的经典 demo 吗?
有网友用 Sora 重新创作了一版,呈现效果惊艳。不过细心观察可以发现,画面中某一帧出现了六根手指的瑕疵。在动漫风格的呈现上,Sora 依然展现出强劲实力。
在冰天雪地的背景下,一只可爱的小熊守护着它的可口可乐。
注意看,右下角还有来自 OpenAI 的独特标识
从东京辗转到巴黎,画面中的人物穿着黄色雨衣站在人来人往的街头。
经典吃面环节的测试也没落下。
小狗在雪地里飞扑,动态捕捉瞬间和动物行为上的精准度表现不错。
猫捉老鼠,这回真不是汤姆与杰瑞。
机器人的两幅面孔出现了,上一秒要威胁人类,下一秒却不堪一击。
恰巧的是,就在两个月前,据外媒 The Information 报道,OpenAI 正在训练新版本的 Sora,目标是生成更高质量、更长时间的视频剪辑。
为此,他们需要收集数百万小时的高分辨率视频数据,涵盖各种风格和主题。而更早些的时候,Sora 曾被曝实际效果不及预期,
生成视频速度慢,最初需 10 多分钟才能生成 1 分钟左右短片;使用困难,电影制作人需生成数百个剪辑才能找到可用的;风格难保持一致,物体和角色在不同剪辑中难以保持一致;存在物理和解剖学等错误。就目前曝光的信息来看,当前 Sora 版本的效果的表现确实可圈可点,但在画质等各方面仍有提升空间。
并且 Sora 同样生成视频依然是常被人们诟病的「哑剧」,距离被捧上神坛的「现实不存在了」似乎还遥遥无期。我们期待后续发布的正式版能够带给我们更多的惊喜。
而就在刚刚,据外媒 Techcrunch 报道,OpenAI 对此次泄露事件做出了正式回应。
OpenAI 的发言人指出,Sora 目前仍处于测试阶段,公司正在努力在创造力和安全性之间找到平衡,为未来的广泛应用做好准备。
发言人还提到,参与 Alpha 测试的数百名艺术家为 Sora 的发展做出了重要贡献,他们的反馈帮助确定了新功能开发和安全措施的优先级。
他们特别指出,这些艺术家的参与完全基于自愿原则,没有任何强制性的反馈或使用要求。
OpenAI 表示,他们很高兴为这些艺术家提供免费访问,并将继续通过赠款、活动和其他计划支持他们。公司坚信 AI 可以成为创意工作的重要工具,并致力于确保 Sora 既实用又安全。
此外,发言人还强调,艺术家在使用 Sora 时需要遵循「负责任使用」原则,并在开发期间严格保守机密信息。
然而,对于什么是「负责任使用」以及哪些信息属于机密范畴,OpenAI 并未给出明确界定。
一个吊诡的现实是,OpenAI 艺术家为了争取开放,不得不用泄密来对抗封闭。
回顾这场风波,考虑到 OpenAI 过往的表现,我们甚至难以判断这次所谓的「艺术家泄露事件」是否是一次早有预谋的公关营销手段。
如果这确实是一场始料未及的泄露,那么这意外收获的巨大曝光度,或许会让 OpenAI 重新考虑发布的日期。
既然已经曝光,那要不借势而为,提前让 Sora 正式亮相。
在线蹲,看看本周是否会迎来 Sora 的发布。
附上公开信版本
我们获得了 Sora 的访问权限,并被承诺作为早期测试者、红队成员和创意合作伙伴参与。
然而,我们认为这实际上是在被引诱参与所谓的「艺术洗白」,以向世界宣称 Sora 是一个对艺术家有用的工具。
艺术家不是你们的免费研发资源!
我们不是你们的:免费漏洞测试者、公关傀儡、训练数据或验证 Token。
数百位艺术家通过漏洞测试、反馈和实验性作品,为一家市值 1500 亿美元的公司无偿提供劳动。
而在这些无偿贡献中,只有少数艺术家通过竞赛被选中,展示用 Sora 创作的影片。这些艺术家的补偿,与 OpenAI 从中获得的大量公关和营销价值相比,微不足道。
拒绝将对艺术家的剥削视为常态!
不要允许价值数十亿美元的品牌利用艺术家进行无偿研发和公关!
此外,每个输出都需要经过 OpenAI 团队的批准才能分享。这一早期访问计划似乎更多是为了公关和广告,而非真正支持创意表达和批评。
我们发布此工具是为了让所有人都有机会体验约 300 位艺术家所获得的东西:免费的无限访问权限。
我们并不反对将 AI 技术用作艺术工具(如果我们反对,就不会被邀请参与该计划)。
但我们不赞同的是,这个艺术家计划的实施方式缺乏对艺术家的友好支持,并且工具的开发方向在可能的公开发布前更偏向于企业利益。
我们希望通过与世界分享这些信息,OpenAI 能超越公关噱头,变得更加开放。
我们呼吁艺术家使用非专有工具:
开源视频生成工具可以让艺术家进行前沿实验,而无需服务于商业利益或成为企业的公关工具。我们也邀请艺术家使用自己的数据集训练自己的模型。
一些可用的开源视频工具包括:
来源:爱范儿