📢 转载信息
原文链接:https://openai.com/index/launching-sora-responsibly
原文作者:The Sora team
2025年9月30日
负责任地推出 Sora 2
Sora 2 和 Sora 应用将尖端的视频生成技术与全新的协作创作方式相结合,我们将确保安全措施从一开始就融入其中。我们的方法基于具体的保护措施:
1. 区分 AI 内容:内置来源追踪
- 区分 AI 内容。 Sora 生成的每一个视频都包含可见和不可见的来源信号。在发布时,所有输出都会带有可见的水印。所有 Sora 视频还嵌入了 C2PA 元数据(行业标准签名),并且我们保留了内部的图像和音频反向搜索工具,可以高精度地将视频追溯到 Sora,这建立在我们从 ChatGPT 图像生成和 Sora 1 中开发的成功系统之上。
2. 基于同意的肖像权控制
- 基于同意的肖像权。 我们的目标是通过“客串”(cameos)功能,让您能够全程控制自己的肖像。我们设置了安全护栏,旨在确保您的音频和图像肖像在您的同意下使用。只有您决定谁可以使用您的客串,并且您可以随时撤销访问权限。我们还采取措施屏蔽公众人物的描绘(当然,使用客串功能的人除外)。包含您客串的视频(包括其他用户创建的草稿)始终对您可见。这使您可以轻松审查和删除(并在需要时报告)任何包含您客串的视频。我们还对任何包含客串的视频应用额外的安全护栏,您甚至可以设置客串的行为偏好(例如,要求它总是戴礼帽)。
3. 青少年保护措施
- 青少年的安全保障。 Sora 为年轻用户提供了更强的保护,包括限制成人内容输出。信息流(feed)的设计旨在适合青少年,青少年个人资料不推荐给成年人,成年人也不能向青少年发起私信。ChatGPT 中的新家长控制功能允许家长管理青少年是否可以发送和接收私信,以及在 Sora 应用中选择非个性化的信息流。默认情况下,青少年在 Sora 中的连续滚动时间也有限制。
4. 有害内容过滤
- 过滤有害内容。 Sora 使用分层防御来确保信息流安全,同时为创造力留出空间。在内容生成时,安全护栏会检查提示词和跨多个视频帧及音频记录的输出,以阻止不安全的内容生成——包括色情内容、恐怖主义宣传和自残宣传。我们对系统进行了红队测试,以探索新颖的风险,并根据 Sora 更高的真实感以及运动和音频的加入,收紧了相对于图像生成的政策。在生成之后,自动化系统会根据我们的全球使用政策扫描所有信息流内容,并过滤掉不安全或不适合年龄的内容。这些系统会随着我们对新风险的了解而不断更新,并辅以专注于最高影响危害的人工审核。
5. 音频安全措施
- 音频安全措施。 为 Sora 添加音频提高了安全要求,虽然实现完美的保护措施很困难,但我们继续在该领域投入大量资源。Sora 会自动扫描生成语音的文本记录,以发现潜在的政策违规行为,并阻止模仿在世艺术家或现有作品的音乐生成尝试。我们的系统旨在检测并阻止此类提示,并且我们遵守创作者认为 Sora 输出侵犯其作品的下架请求。
6. 用户控制与申诉渠道
- 用户控制和申诉。 您可以选择何时以及如何分享您的视频,并且可以随时删除您发布的任何内容。只有在您选择分享时,视频才会发布到信息流中。每个视频、个人资料和评论都可以报告滥用行为,当政策被违反时,有明确的申诉渠道。您也可以随时选择屏蔽账户,这将阻止他人查看您的个人资料或通过私信联系您。
作者
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
评论区