Sora信息流(Feed)设计理念:创造力、用户控制与安全平衡
OpenAI 推出 Sora 信息流(Feed)的根本目标是:帮助人们了解技术的可能性,并激发他们的创作热情。为了实现这一愿景,我们确立了以下几个核心起始原则:
核心设计原则
- 优化创造力:我们的推荐排名系统旨在优先考虑创造力和主动参与,而非被动的“刷信息”。我们相信这能让 Sora 的使用体验更具乐趣。
- 赋予用户控制权:信息流提供可调节的排名机制,让用户可以精确告诉算法他们当前的心情和偏好。此外,家长也可以通过 ChatGPT 的家长控制功能,为青少年关闭信息流个性化推荐和连续滚动功能。
- 优先考虑连接:我们希望 Sora 能够帮助人们加强和建立新的联系,尤其是在有趣的、充满魔法的“Cameo”互动流程中。我们会优先推荐互相关联的内容,而不是孤立的、不产生连接的全局内容。
- 平衡安全与自由表达:信息流的设计旨在广泛可用且安全。强大的防护栏从一开始就阻止了不安全或有害内容的生成,并且我们会主动屏蔽任何可能违反我们《使用政策》的内容。同时,我们也希望为表达、创造力和社区留出空间。我们深知推荐系统是动态发展的,随着真实使用情况的学习,我们将根据这些原则不断调整细节。
推荐机制是如何运作的?
我们的推荐算法旨在为您提供个性化的建议,激发您和社区的创造力。由于每个人的兴趣和品味各不相同,我们构建了一个个性化系统来最好地服务于这一使命。
为了个性化您的 Sora 信息流,我们可能会考虑以下信号:
- 您在 Sora 上的活动:这可能包括您的帖子、关注的账户、点赞和评论的内容,以及您二次创作(Remix)的内容。它还可能包括您设备访问 Sora 的大致地理位置(例如城市),这基于您的 IP 地址等信息推断得出。
- 您的 ChatGPT 数据:我们可能会参考您的 ChatGPT 历史记录,但您可以随时在 Sora 的“设置”>“数据控制”中关闭此功能。
- 内容互动信号:包括观看量、点赞、评论和二次创作(Remix)。
- 创作者信号:包括粉丝数量、其他帖子情况以及过往帖子的互动表现。
- 安全信号:帖子是否被判定为违规或不恰当。
我们可能会使用这些信号来预测您可能喜欢看到并想进行二次创作的内容。
家长还可以通过 ChatGPT 中的家长控制功能,为青少年的信息流关闭个性化推荐并管理连续滚动功能。
如何在安全与表达之间取得平衡?
确保 Sora 信息流对所有人来说既安全又有趣,意味着我们需要在保护用户免受有害内容侵害和为创造力留出足够自由空间之间走一条谨慎的道路。
我们的第一道防线是在内容生成那一刻。由于每个帖子都是在 Sora 内部生成的,我们可以内置强大的防护栏,在内容产生之前就阻止不安全或有害的内容。这包括对色情内容、涉及真实人物的暴力画面、极端主义宣传、仇恨内容以及宣扬自残或饮食失调的内容的限制。
除了生成环节,信息流的设计旨在适合所有 Sora 用户,包括青少年。因此,我们会过滤掉可能有害、不安全或不适合特定年龄的内容。我们会优先处理可能造成最大伤害的内容,包括:严重的自残、色情或暴力内容;不健康的节食或运动行为;以外貌为基础的评论或比较以及欺凌内容;可能被未成年人模仿的危险挑战;极其冒犯性的语言或美化仇恨、抑郁或宣扬暴力的内容;以及宣传受年龄限制的商品或活动,例如非法药物或有害物质。
我们使用自动化工具扫描所有信息流内容,以确保它们符合我们的 《全球使用政策》和信息流的资格要求。随着我们对新风险了解的增加,这些系统也在不断更新。如果您发现任何不符合我们《使用政策》的内容,您可以 进行举报。
我们辅以人工审核。我们的团队会监控用户报告,并主动检查信息流活动,以捕捉自动化工具可能遗漏的内容。如果您发现任何不符合我们《使用政策》的内容,您可以 进行举报。
但安全不仅仅是严格的过滤器。过多的限制会扼杀创造力,而过度的自由则会破坏信任。我们的目标是找到平衡点:在风险最高的领域设置积极的防护栏,同时结合一个反应式的“举报+下架”系统,给予用户探索和创作的空间,并确保我们能在问题出现时迅速采取行动。这种方法在 ChatGPT 的 4o 图像生成模型中已证明有效,我们正在 Sora 信息流中延续这种理念。
我们也知道,我们不可能从第一天起就完美地实现这种平衡。推荐系统和安全模型都是动态演进的系统,您的反馈对于帮助我们完善它们至关重要。我们期待与您共同学习并不断进步。
评论区