目 录CONTENT

文章目录

人工智能的进展与建议

Administrator
2025-11-07 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://openai.com/index/ai-progress-and-recommendations

原文作者:OpenAI


2025年11月6日

人工智能正在解锁新的知识和能力。我们的责任是引导这种力量朝着广泛、持久的利益方向发展。

当图灵测试的通俗概念呼啸而过时,我们中的许多人觉得奇怪,为什么日常生活还在很大程度上照旧。这是一个人们谈论了几十年的里程碑。它曾经感觉遥不可及,然后突然感觉临近,再然后我们突然就跨过去了。我们获得了一些很棒的新产品,但世界并没有发生太大变化,尽管计算机现在可以进行对话并思考难题。

大多数人仍然将人工智能视为聊天机器人和更好的搜索,但今天,我们已经拥有在某些最具挑战性的智力竞赛中超越最聪明人类的系统。尽管人工智能系统仍然存在不足和严重的弱点,但能够解决如此难题的系统似乎更接近AI研究人员的 80% 的水平,而不是 20% 的水平。大多数人使用AI的方式与AI目前的能力之间存在巨大的差距。

能够自主发现新知识,或通过提高人们的效率来发现新知识的AI系统,很可能会对世界产生重大影响。

在短短几年内,在(特别是在软件工程领域)AI的能力已经从只能完成一个人几秒钟就能完成的任务,发展到可以完成一个人一个多小时才能完成的任务。我们预计很快就会拥有能够完成一个人需要几天或几周才能完成任务的系统;我们还不知道如何思考那些可以完成一个人需要数个世纪才能完成任务的系统。

与此同时,给定水平的智能的单位成本急剧下降;过去几年,每年下降 40 倍 是一个合理的估计!

我们预计在 2026 年,人工智能将有能力做出非常小的发现。到 2028 年及以后,我们很有信心将拥有能够做出更重大发现的系统(尽管我们当然也可能出错,但这是我们的研究进展所显示的)。

我们一直认为,人工智能的进步会以出人意料的方式展现出来,而且社会会找到与技术共同发展的方式。尽管我们预计未来几年人工智能能力将快速且显著地进步,但我们预计日常生活仍然会感觉出奇地稳定;即使有了更好的工具,我们的生活方式也具有很大的惯性。

特别是,我们预计未来将提供新的、希望更好的方式来实现充实的生活,并且比今天有更多的人能够体验到这样的生活。诚然,工作将会有所不同,经济转型在某些方面可能会非常困难,甚至有可能需要改变基本的社会经济契约。但在一个普遍分配充足的世界里,人们的生活可以比今天好得多。

AI系统将帮助人们了解自己的健康状况,加速材料科学、药物开发和气候建模等领域的进展,并扩大全球学生获得个性化教育的机会。展示这些类型的切实体会到的好处有助于建立一个共享的愿景:一个AI可以让生活变得更好,而不仅仅是更有效率的世界。

OpenAI 坚定致力于安全,我们将安全视为通过减轻负面影响来实现AI积极影响的实践。尽管潜在的好处是巨大的,但我们将超级智能系统的风险视为潜在的灾难性风险,并相信 实证地 研究 安全和 深思熟虑地 对齐 可以帮助全球决策,例如在系统达到递归自我改进能力时,是否应该放慢整个领域的发展速度,以便更仔细地研究这些系统。显然,任何人在无法稳健地对齐和控制超级智能系统的情况下都不应部署它们,而这需要更多的技术工作。

以下是我们认为有助于实现AI积极未来的几件事:

来自前沿实验室的共享标准和见解。

我们认为,前沿实验室应该就共享的安全原则达成一致,并 分享安全研究、关于新风险的学习经验、减少竞争动态的机制等。我们可以想象,前沿实验室就人工智能控制评估的某些标准达成一致将非常有帮助。

社会在建立建筑规范和防火标准方面也经历了类似的过程,这些规范和标准挽救了无数生命。

与能力相称的公共监督和问责制方法,旨在促进AI的积极影响并减轻负面影响。

关于AI有两种思想流派。一种是认为AI就像“普通技术”一样,它将像过去的技术革命一样发展,从印刷机到互联网。事物的发展方式将给予人们和社会适应的机会,传统的公共政策工具应该有效。我们需要优先考虑促进创新、保护AI对话隐私以及通过与联邦政府合作,防御不良行为者滥用强大系统的想法。

我们认为,达到今天水平左右的AI已经处于这种阶段,并应该在各个地方普及,这意味着大多数开发人员、开源模型以及几乎所有当前技术的部署,应在现有基础上享有最少的额外监管负担。它当然不应该面临 50个州 的监管拼凑。

另一种是超级智能以人类前所未有的方式和速度发展和扩散。在这种情况下,我们应该做上述的大部分事情,但我们也需要更具创新性。如果前提是这种发展对社会来说是“常规方式”难以适应的,那么我们也不应期望典型的监管能起多大作用。在这种情况下,我们可能需要与多个国家的行政部门和相关机构(如各种安全研究所)密切合作,以实现良好协调,特别是在减轻AI在生物恐怖主义中的应用(以及利用AI检测和预防生物恐怖主义)以及自我改进AI的影响等方面。

高层次的关键在于对公共机构负责,但实现这一目标的方式可能需要有别于过去。

构建AI韧性生态系统。

在任何一种情况下,构建一个AI韧性生态系统都至关重要。当互联网出现时,我们没有通过单一的政策或公司来保护它——我们建立了一整套网络安全领域:软件、加密协议、标准、监控系统、应急响应团队等。该生态系统并没有消除风险,但将其降低到了社会可以接受的水平,使人们有足够的信心信任数字基础设施,从而在上面构建自己的生活和经济。我们需要为AI建立类似的东西,而国家政府在促进这种工业政策方面可以发挥强大的作用。

前沿实验室和政府关于AI影响的持续报告和衡量。

了解AI如何具体影响世界,可以更容易地引导这项技术走向积极影响。预测是困难的:例如,AI对工作的影响就很难预料,部分原因在于今天AI的优势和劣势与人类的非常不同。在实践中衡量正在发生的事情可能会非常有启发性。

为个体赋权而构建。

我们相信,成年人应该能够在广泛的社会界限内,按照自己的条件使用AI。我们预计先进的AI访问将在未来几年成为一项基础性公用事业——与电力、清洁水或食物相当。最终,我们认为社会应该支持广泛提供这些工具,而北极星指标应该是帮助人们实现他们的目标。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区