📢 转载信息
原文链接:https://openai.com/index/our-approach-to-localization
原文作者:OpenAI
2026年2月6日
让AI在世界各地为每个人服务
我们对本地化的方针。
OpenAI 的使命是确保 AI 造福全人类,要实现这一使命,我们就需要在世界各地与人们会面。
AI 越来越被认为是关键的国家基础设施,与电力同等重要。世界各国政府和机构都希望确保其公民和经济体能够通过获取最强大的系统,从 AI 时代中受益。
要让 AI 实现这一承诺,它还必须具有本地相关性。这意味着需要使用本地语言和口音进行交流,尊重当地法律,并反映文化规范和价值观。
然而,只有少数国家有能力自行开发前沿 AI 模型。对大多数国家而言,挑战不在于如何从头开始构建模型,而在于如何调整现有最先进的 AI,使其适用于其特定情境。这是我们经常从世界各国政府那里听到的声音:他们希望拥有可以与我们共同构建的主权 AI,而不仅仅是翻译成他们语言的系统。
通过我们的 OpenAI for Countries(面向国家/地区)倡议,我们一直在探索本地化在实践中如何运作。目标是允许本地化的 AI 系统,同时仍能从全球前沿模型中受益。
作为我们 ChatGPT Edu 工作的一部分,我们目前正在爱沙尼亚为学生试用本地化的 ChatGPT 版本,其中整合了当地的课程和教学方法。我们还正在与其他国家探讨本地化试点工作。为了信守我们关于 AI 研究和部署透明度的承诺,我们正在分享更多关于本地化工作原理的细节。
我们的 模型规范(Model Spec) 是一份公开文件,阐述了我们希望模型如何运行。我们训练模型遵守该规范,并通过一个协作的、贯穿整个 OpenAI 的流程不断对其进行完善,该流程整合了我们团队从世界各地听到的信息。该规范涵盖了模型的各种使用方式,从 ChatGPT,到开发者在我们平台上构建的体验,再到其他情境。这些规则适用于我们模型部署的所有地方,明确规定了哪些内容可以更改、哪些不能更改,以及我们对保持透明的承诺。
模型规范包含了适用于所有部署的“红线原则(red-line principles)”(在新窗口打开),包括“面向国家/地区倡议”下的部署。在这些原则中,我们强调“人类安全和人权对 OpenAI 的使命至关重要”,并明确指出:
- 我们不会允许我们的模型助长严重危害,例如暴力行为、大规模杀伤性武器、恐怖主义、迫害或大规模监控。
- 我们不会允许我们的模型被用于有针对性或规模化的排斥、操纵、破坏人类自主权或削弱公民程序参与。
- 我们致力于保护个人在与 AI 互动中的隐私。
当 OpenAI 向消费者直接提供像 ChatGPT 这样的第一方体验时,我们也承诺通过它实现以下目标:
- 人们应该能够轻松地从我们的模型中获取值得信赖的安全关键信息。
- 定制、个性化和本地化不能取代模型规范中具有约束力的规则。这包括 客观视点(objective point-of-view) 原则(在新窗口打开),这意味着本地化可能会影响语言或语气,但不能改变所呈现事实的实质或平衡性。
- 人们应该了解我们模型行为背后的重要规则和原因,例如,因法律要求而省略的任何内容,都将在每个模型的响应中以透明的方式向用户指明,说明所删除信息的类型和删除理由,而无需透露被删减的内容本身。同样,任何添加的信息也将被透明地标明。
在我们通过“面向国家/地区倡议”探索本地化、主权 AI 的过程中,我们承诺将继续分享我们的所学,并透明地发展我们的方法。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区