OpenAI CEO Sam Altman在2025年10月10日最新发布的博客文章《Sora Update #1》中(https://blog.samaltman.com/sora-update-number-1),分享了对Sora视频生成工具的首次重大更新。这些更新基于实际用户反馈、版权持有者意见以及其他利益相关者的输入,标志着OpenAI在处理AI与知识产权冲突方面的关键转向。
另外一个值得关注的变化是引入货币化机制,与选择加入的持有者分享收入。这两个版权运营策略上的重大更新凸显了AI行业在创新与版权保护平衡上的紧迫需求——也许只有双赢才是真正的出路。
一、opt-out:默认同意使用
OpenAI的opt-out和opt-in机制主要针对AI模型训练和生成过程中的数据使用,涵盖文本、图像、音频和视频等领域。这些功能旨在缓解AI“数据饥渴”与创作者权利之间的矛盾。
opt-out作为早期默认模式,允许公开内容(如网络数据)自动纳入训练数据集,除非持有者主动退出。例如,通过robots.txt文件阻止OpenAI的GPTBot爬虫,或在ChatGPT隐私设置中选择不分享对话数据;在DALL-E中,创作者可提交表单移除特定图像。Sora最初也倾向于此模式,默认使用版权材料但提供退出选项。这种机制的灵活性在于,它最大化了数据可用性,同时赋予持有者一部分控制权。
opt-out机制符合早期AI行业的“公平使用”(fair use)理念,认为训练过程类似于人类学习,不构成侵权。初衷是促进创新,避免完全禁止数据使用带来的技术停滞。但也被批评者称为:“默认侵权”,因为AI仍需处理数据来“学习不生成”类似内容,这可能违反版权法。日本动漫社区的抗议尤为突出,他们担心Sora生成盗版角色,导致OpenAI在2025年9月后迅速调整,避免默认机制被视为“隐形侵权”。此外,全球诉讼潮——如纽约时报诉OpenAI案——暴露了opt-out的痛点:数据一旦嵌入模型便难以彻底移除,增加了法律风险。
二、opt-in:明示同意后使用
相比之下,opt-in要求明确同意才能使用内容,体现了更高的尊重门槛。OpenAI通过Media Manager工具(虽延期但计划于2025年推出)或与出版商的合作协议实现这一功能,允许创作者指定使用范围并获得补偿。在Sora的最新调整中,这一模式扩展到角色生成:持有者必须主动授权,OpenAI才会允许视频中出现相关元素。这种分层应用——网络爬取偏向opt-out,特定生成工具更注重opt-in——确保了机制的实用性和适应性,同时更符合欧盟GDPR和中国《数据安全法》等监管要求,这一变化反映了行业从“野蛮生长”向责任导向的成熟。
显然,从opt-out向opt-in的转变并非突发,而是外部压力与内部反思的产物。这种来自版权方的压力会否在中国上演以及对中国的大模型公司造成何种影响,目前还不好判断。
但至少这一机制转向比较好的解决了AI版权领域的核心挑战。首先,它强化了侵权预防,通过事前许可取代事后补救,显著降低诉讼压力。其次,提升了创作者赋权。在Sora中,持有者可精细控制角色使用,避免未经授权的生成,同时通过收入分享(如Altman提到的货币化计划)创造经济激励。这不仅缓解了伦理困境,还优化了数据质量,过滤非法或低质内容提高模型可靠性。更宏观地角度上,还助力了AI合规生态建设,减少监管罚款,推动可持续创新。
小结
对AI行业而言,OpenAI的这一“特效药”可能具有深远的“样本”意义。它可能催化opt-in成为主流范式,促使Google、Meta等巨头转向许可经济,减少整体法律摩擦,并影响全球法规如欧盟AI法案的制定。版权分成机制目前虽然尚不明朗,但从经济原理分析很可能催生更多跨界合作,AI企业与内容提供者的协议将注入新活力,为出版、艺术等领域开辟收入渠道。
总之,巨头的做法在一定程度上彰显了数据使用需以伦理和尊重权利为核心的理念,避免短期主义带来的长期隐患,版权保护也可以是竞争优势的一部分。在中美欧AI竞争格局中,这种框架可以被新兴市场所参考,至于在多大程度上会被借鉴,一方面取决于各参与方的博弈(抗议、诉讼等)程度,另一方面取决于监管的整体考量(创新和权益保护)。

小程序扫码观看
更多农机资讯尽在农机一键查
版权声明:本文仅代表作者观点,不代表农机新闻网立场。 本文为分享行业信息所用,如需转载,请联系原作者。
网友评论仅供其表达个人看法,并不代表农机新闻立场。