目 录CONTENT

文章目录

Sora信息流理念

Administrator
2026-02-04 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://openai.com/index/sora-feed-philosophy

原文作者:OpenAI


2026年2月3日


原则 (Principles)

我们对 Sora 信息流的期望很简单:帮助人们了解什么是可能的,并激发他们的创作欲望。以下是我们实现这一愿景的一些核心起始原则:

  • 优化创造力。 我们设计的排名机制偏向于创造力和积极参与,而非被动的滚动浏览。我们认为这才是 Sora 使用起来令人愉悦的原因。
  • 让用户掌控。 信息流提供可引导的排名,因此您可以确切地告诉算法您现在想看什么。家长也可以通过 ChatGPT 的家长控制功能为青少年关闭信息流个性化设置并控制连续滚动。
  • 优先考虑连接。 我们希望 Sora 能够帮助人们加强和建立新的联系,尤其是在有趣的、神奇的 Cameo 流程中。互相关联的内容将比全局的、无关联的内容更受青睐。
  • 平衡安全与自由。 信息流的设计旨在让广大用户都能安全地使用。强大的护栏旨在从一开始就防止不安全或有害的生成内容,并且我们会屏蔽可能违反我们使用政策的内容。同时,我们也希望为表达、创造力和社区留出空间。我们知道推荐系统是不断发展的、有生命的。随着我们从实际使用中学习,我们将根据这些原则的指导来调整细节。

工作原理 (How it works)

我们的推荐算法旨在为您提供个性化的推荐,激发您和其他人的创造力。每个人都有独特的兴趣和品味,因此我们构建了一个个性化系统,以最好地实现这一使命。

为了个性化您的 Sora 信息流,我们可能会考虑以下信号:

  • 您在 Sora 上的活动: 这可能包括您的帖子、关注的账户、点赞和评论的帖子以及混音(remixed)内容等活动。它还可能包括您的设备访问 Sora 的大致位置(例如城市),该位置基于 IP 地址等信息。
  • 您的 ChatGPT 数据: 我们可能会考虑您的 ChatGPT 历史记录,但您可以在“设置”中的“Sora 数据控制”中随时将其关闭。
  • 内容互动信号: 这可能包括浏览量、点赞、评论、“少看此类内容”的指令以及混音(remixes)等信号。
  • 作者信号: 这可能包括粉丝数量、其他帖子以及过往帖子的互动情况。
  • 安全信号:帖子是否被认定为违规或不恰当。

我们可能会使用这些信号来预测您可能喜欢看的内容并与之“即兴创作”(riff off of)。

家长也可以使用 ChatGPT 中的家长控制功能,为青少年关闭信息流个性化设置并管理连续滚动。

我们如何平衡安全与表达 (How we balance safety & expression)

让 Sora 信息流对每个人来说都安全有趣,意味着要走一条谨慎的平衡路线:在保护用户免受有害内容侵害的同时,为创造力的蓬勃发展留下足够的自由空间。

我们可能会删除违反我们全球使用政策 (Global Usage Policies)的内容。此外,根据我们的Sora 分发指南 (Sora Distribution Guidelines),被认为不适合用户的其他内容可能会从信息流和其他分享平台(如用户图库和侧边角色)中移除。这包括:

  • 露骨的色情内容;
  • 露骨的暴力或宣扬暴力的内容;
  • 极端主义宣传;
  • 仇恨内容;
  • 宣扬或描绘自残或饮食失调的内容;
  • 不健康的节食或运动行为;
  • 基于外表的批评或比较;
  • 霸凌内容;
  • 极易被未成年人模仿的危险挑战;
  • 美化抑郁的内容;
  • 推广受年龄限制的商品或活动,包括非法药物或有害物质;
  • 主要目的是“互动诱饵”的低质量内容;
  • 在未经在世人士同意的情况下重现其形象,或在不允许使用已故公众人物形象的背景下使用其形象;
  • 可能侵犯他人知识产权的内容。

我们的第一道防线是在创建时。 因为每个帖子都是在 Sora 内部生成的,所以我们可以内置强大的护栏,在内容生成之前就阻止不安全或有害的内容。如果某个生成内容绕过了这些护栏,我们可能会移除该内容的分享。

在生成之外,信息流的设计也旨在适合所有 Sora 用户。有害、不安全或不适合青少年年龄的内容会被青少年账户过滤掉。我们使用自动化工具扫描所有信息流内容,以确保其符合我们的全球使用政策和信息流资格要求。随着我们对新风险了解的加深,这些系统会不断更新。如果您看到任何您认为不符合我们使用政策的内容,您可以进行举报

我们通过人工审核来补充。 我们的团队会监控用户报告,并主动检查信息流活动,以发现自动化可能遗漏的内容。如果您看到任何您认为不符合我们使用政策的内容,您可以进行举报

但安全不仅仅是严格的过滤器。 过多的限制会扼杀创造力,而过多的自由会破坏信任。我们的目标是找到一种平衡:在风险最高的地方实施积极的护栏,并结合被动的“举报+移除”系统,让用户在探索和创作的同时,确保我们能在问题出现时迅速采取行动。这种方法在 ChatGPT 的 4o 图像生成模型中对我们非常有效,我们正基于此理念来构建 Sora。

我们也知道,我们不可能从第一天起就将这种平衡做到完美。推荐系统和安全模型是不断发展和演进的系统,您的反馈对于帮助我们完善它们至关重要。我们期待着共同学习并随着时间的推移不断改进。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区