📢 转载信息
原文链接:https://www.technologyreview.com/2025/12/15/1129171/the-ai-doomers-feel-undeterred/
原文作者:Garrison Lovely
成为一名人工智能“末日论者”(AI doomer)的时期很奇怪。
这个由研究人员、科学家和政策专家组成但有影响力的小群体,用最简单的话来说,相信人工智能可能会变得过于强大,对人类来说是极其糟糕的——非常、非常糟糕。尽管这些人中许多人更倾向于将自己描述为AI安全倡导者而不是字面意义上的预言家,但他们警告说,AI对人类构成了生存风险。他们认为,如果没有更多的监管,这个行业可能会朝着无法控制的系统狂奔。他们通常预期,这样的系统将在通用人工智能(AGI)的创建之后出现,AGI是一个模糊的概念,通常被理解为能够完成人类所能做的一切,并且做得更好的技术。
本文是《麻省理工科技评论》“炒作修正”系列的一部分,该系列旨在重置人们对AI是什么、它能带来什么以及我们接下来的方向的期望。
尽管这远非AI领域中普遍持有的观点,但在过去几年中,“末日论者”群体取得了一些显著的成功:帮助塑造了拜登政府的AI政策,组织了重要的呼吁为防止AI风险设立国际“红线”,并随着一些信徒赢得科学界最负盛名的奖项,获得了更大(也更有影响力)的发言权。
但在过去的六个月里发生的一些事让他们处于守势。随着科技公司继续投入相当于多个曼哈顿计划规模的数据中心建设,却无法确定未来的需求是否能匹配他们正在建设的规模,关于AI泡沫的讨论充斥了整个话语空间。
相关报道
然后是OpenAI在八月发布的最新基础模型GPT-5,这被证明有点令人失望。也许这是不可避免的,因为这是有史以来最受炒作的AI发布;OpenAI首席执行官萨姆·奥特曼曾吹嘘GPT-5感觉像“每个主题的博士级专家”,并告诉播客主Theo Von,该模型如此之好,以至于让他感觉“相对于AI变得毫无用处”。
许多人期望GPT-5能成为迈向AGI的一大步,但无论该模型取得了什么进展,都被一系列技术错误以及该公司令人费解的、很快被推翻的、未经警告就关闭所有旧OpenAI模型的决定所掩盖。而且,虽然新模型取得了最先进的基准分数,但许多人感觉,也许不公平地认为,在日常使用中,GPT-5是一个倒退。
所有这些似乎都威胁着“末日论者”论点的某些基础。反过来,一个对立的阵营——AI加速主义者(AI accelerationists),他们担心AI发展得不够快,担心行业随时可能被过度监管扼杀——正迎来改变我们处理AI安全(或者更准确地说,不处理AI安全)方式的新机会。
这一点对于那些已经前往华盛顿的行业人士来说尤为明显:“‘末日论者’的叙事是错误的,”长期风险投资家、特朗普政府时期的AI沙皇戴维·萨克斯(David Sacks)宣称。“这种迫在眉睫的AGI的概念已经成为一种分心和有害的因素,现在实际上已被证明是错误的,”白宫人工智能和技术投资高级政策顾问斯里拉姆·克里希南(Sriram Krishnan)呼应道。(萨克斯和克里希南没有回复置评请求。)
(在AI安全辩论中,当然还有另一个阵营:通常与“AI伦理”标签相关的一群研究人员和倡导者。尽管他们也支持监管,但他们倾向于认为AI进步的速度被夸大了,并且经常撰文将AGI斥为科幻故事或一个骗局,分散了我们对该技术现有危害的注意力。)
那么,这对“末日论者”意味着什么?作为我们“炒作修正”系列的一部分,我们决定询问该运动的一些重量级人物,看看最近的挫折和整体氛围的转变是否改变了他们的看法。他们是否对政策制定者不再认真对待他们的警告感到沮丧?他们是否在悄悄调整他们对世界末日的预测时间表?
对20位研究或倡导AI安全和治理的人士进行的近期采访——包括诺贝尔奖得主杰弗里·辛顿(Geoffrey Hinton)、图灵奖得主约书亚·本吉奥(Yoshua Bengio)以及前OpenAI董事会成员海伦·托纳(Helen Toner)等知名专家——显示,他们不仅没有感到羞愧或被边缘化,反而仍然坚定地致力于他们的事业,相信AGI不仅是可能的,而且极其危险。
与此同时,他们似乎正在努力应对一个近乎矛盾的局面。虽然他们对最近的发展表明AGI比他们预期的更遥远感到有些宽慰(AI研究员杰弗里·拉迪什(Jeffrey Ladish)说:“谢天谢地,我们有了更多时间”),但他们也对掌权者没有足够认真对待他们感到愤怒(审慎预测“AI 2027”的首席作者丹尼尔·科科塔伊洛(Daniel Kokotajlo)称萨克斯和克里希南的推文“离谱和/或不诚实”)。
总的来说,这些专家认为对AI泡沫的讨论不过是暂时的障碍,而对GPT-5的失望带来的影响大于启发意义。他们仍然普遍倾向于更强有力的监管,并担心政策方面的进展——如欧盟《人工智能法案》的实施;首个美国主要AI安全法案——加州SB 53的通过;以及国会一些成员对AGI风险的新兴趣——因为华盛顿对末日论者眼中的短期失败反应过度而变得脆弱。
一些人还急于纠正他们认为关于“末日论者”世界的持续误解。尽管批评者经常嘲笑他们预测AGI就在眼前,但他们声称这从来不是他们论点中的核心部分:伯克利教授、《人类兼容:人工智能与控制问题》的作者斯图尔特·罗素(Stuart Russell)说,这“与紧迫性无关”。大多数与我交谈过的人表示,他们对危险系统的预测时间线实际上在过去一年中延长了一点——鉴于政策和技术环境变化的速度,这是一个重要的变化。
“如果有人说有一个直径四英里的彗星将在2067年撞击地球,我们不会说:‘2066年再提醒我,我们再考虑吧。’”
事实上,他们中的许多人强调了改变时间线的重要性。托纳告诉我,即使他们现在的时间线稍微长了一点,ChatGPT时代的一个宏大故事是这些估计在整个AI领域急剧压缩。她说,长期以来,AGI被认为在几十年后才会出现。但现在,大多数情况下,预测的到来时间是在未来几年到20年之间。因此,即使我们有了更多的时间,她(以及她的许多同行)仍然认为AI安全是极其、至关重要的紧急事项。她告诉我,如果AGI有可能在未来30年内出现,“那将是一件大事。我们应该有很多人致力于此。”
因此,尽管“末日论者”发现自己处于一个不稳定的时刻,但他们的底线仍然是,无论AGI何时到来(他们再次表示它很可能会到来),世界都远未做好准备。
也许你同意。也许你认为这个未来远非确定。也许你认为这是科幻小说的内容。你甚至可能认为AGI是一个巨大的阴谋论。当然,你并不孤单——这个话题具有两极分化性。但无论你如何看待“末日论者”的心态,都无法否认这个世界上有某些人拥有很大的影响力。所以,以下是该领域一些最杰出的人物用他们自己的话来反思这个时刻。
访谈已为篇幅和清晰度进行了编辑和删节。
不确定未来会怎样到的诺贝尔奖得主
杰弗里·辛顿(Geoffrey Hinton),图灵奖和诺贝尔物理学奖得主,深度学习领域的先驱
过去几年中最大的变化是,有一些难以被驳回的人说这些东西很危险。比如,[前谷歌首席执行官]埃里克·施密特(Eric Schmidt)就真正认识到这些东西可能非常危险。我和他最近在中国与一位政治局成员、上海市委书记交谈,以确保他真正理解了这一点——他确实理解了。我认为在中国,领导层对人工智能及其危险性的理解更深刻,因为他们中有许多人是工程师。
我一直关注着长期威胁:当AI变得比我们更聪明时,我们真的能指望人类仍然保持控制权甚至相关性吗?但我并不认为任何事情是不可避免的。在所有事情上都有巨大的不确定性。我们以前从未经历过这种情况。任何对自己将发生的事情充满信心的人在我看来都很可笑。我认为这种情况发生的可能性很小,但也可能结果是所有说AI被过度炒作的人是正确的。也许结果是我们无法在当前的聊天机器人上走得更远——我们会因为数据有限而撞到一堵墙。我不相信这一点。我认为那不太可能,但也是可能的。
我也不相信埃里泽·尤德考斯基(Eliezer Yudkowsky)之流的人,他们说,如果有人制造出它,我们都会死。我们并不知道。
但根据现有证据的权衡,我认为可以说,大多数了解AI的专家都认为,在未来20年内出现超级智能的可能性非常大。[谷歌DeepMind首席执行官]戴米斯·哈萨比斯(Demis Hassabis)说可能是10年。甚至[著名的AI怀疑论者]加里·马库斯(Gary Marcus)可能也会说,“好吧,如果你们通过结合了老式的符号逻辑创建了一个混合系统……也许那会是超级智能的。” [编者注:九月,马库斯预测AGI将在2033年至2040年之间到来。]
而且我不认为有人相信进步会在AGI处停止。我认为,几乎所有人都相信,在AGI出现后几年内,我们将拥有超级智能,因为AGI将更擅长构建AI。
因此,虽然我认为很明显,阻力正在加大,但与此同时,人们投入了更多的资源[用于开发先进AI]。我认为进展将继续下去,仅仅是因为投入的资源更多了。
这位深度学习先驱希望他能更早看到风险
约书亚·本吉奥(Yoshua Bengio),图灵奖得主,《国际人工智能安全报告》主席,以及LawZero创始人
有些人认为GPT-5意味着我们遇到了瓶颈,但科学数据和趋势并非如此显示。
一直有人过度推销“AGI就在明天早上”的想法,这在商业上可能有意义。但如果你看一下各种基准测试,GPT-5只是模型在那个时间点应该达到的位置。顺便说一句,不只是GPT-5,Claude和谷歌的模型也是如此。在一些AI系统不擅长的领域,比如“人类的最后考试”(Humanity’s Last Exam)或“前沿数学”(FrontierMath),它们现在的得分比年初要好得多。
与此同时,AI治理和安全的总体环境并不好。有一种强大的力量在抵制监管。这就像气候变化一样。我们可以把头埋在沙子里,希望一切都会好起来,但这并不能真正解决问题。
与政策制定者最大的脱节在于对AI进步趋势持续下去可能发生的变化规模的误解。商业界和政府中的许多人只是将AI视为另一种将具有强大经济实力的技术。他们不明白,如果趋势持续下去,并且我们接近人类水平的AI,它可能会如何改变世界。
和许多人一样,我在一定程度上蒙蔽了自己,没有看到潜在的风险。我应该更早地看到这一点。但这是人性的体现。你对自己的工作感到兴奋,你想看到它的好的一面。这使得我们在没有真正关注可能发生的坏事时,有点偏向性。
即使是创造一个可能导致数十亿人死亡的事故的微小几率——比如1%或0.1%——也是不可接受的。
这位相信AI正在进步——但速度不足以防止泡沫破裂——的人工智能老兵
斯图尔特·罗素(Stuart Russell),加州大学伯克利分校杰出计算机科学教授,《人类兼容》的作者
我希望关于讨论生存风险使你成为“末日论者”或“科幻小说”的想法会被视为边缘观点,因为大多数顶尖AI研究人员和大多数顶尖AI首席执行官都认真对待它。
曾有人声称AI永远无法通过图灵测试,或者永远不会有系统能流利地使用自然语言,或者能自己平行泊车。所有这些说法最终都被进步所证伪。
人们正在花费数万亿美元来实现超人AI。我认为他们需要一些新的想法,但他们很有可能会想出来,因为过去几年中已经出现了许多重大的新想法。
在过去12个月中,我相当一致的估计是,有75%的几率那些突破不会及时发生,以挽救该行业免于泡沫破裂。因为投资与我们未来将拥有更强大的AI,并为真实客户带来更多价值的预测是一致的。但如果这些预测没有成真,那么股市上将会血流成河。
然而,安全论点并不关乎紧迫性。而是关乎我们仍然没有解决控制问题。如果有人说有一个直径四英里的彗星将在2067年撞击地球,我们不会说:“2066年再提醒我,我们再考虑吧。”我们不知道开发控制超级智能AI所需的技术需要多长时间。
纵观先例,核电站熔毁的可接受风险率约为每年一百万分之一。灭绝比那严重得多。所以也许可接受的风险定在一万亿分之一。但这些公司却说这大约是五分之一。他们不知道如何使其可接受。这是一个问题。
这位试图澄清AI安全叙述的教授
大卫·克鲁格(David Krueger),蒙特利尔大学和约书亚·本吉奥的米拉研究所(Mila Institute)的机器学习助理教授,以及Evitable的创始人
我认为人们对GPT-5的回应反应过度了。但确实存在炒作。我的记忆是,来自各种明确程度的首席执行官的多条声明,基本上都说到2025年底,我们将拥有一个自动化的、可替代远程工作的工人。但事实证明,这令人失望,代理(Agents)似乎还没有真正到位。
相关报道
我对“AI 2027”这样的AGI预测叙事能吸引公众注意力感到惊讶。当2027年到来,如果一切看起来仍然很正常,我认为人们会觉得整个世界观都被证伪了。而且,当我与人们谈论AI安全时,他们经常假设我认为我们有很短的时间窗口达到危险系统,或者我认为LLM或深度学习会带来AGI,这真的很令人恼火。他们将所有这些额外的假设强加给我,而这些假设对论证AI安全并非都是必需的。
我预计我们需要几十年时间来解决国际协调问题。因此,即使危险的AI在几十年后才会出现,它现在也是迫在眉睫的。这个观点似乎被很多人所忽略。有一种想法是“让我们等到我们有了一个真正危险的系统后再开始管理它。”老兄,那太晚了。
我仍然认为安全社区的人倾向于在幕后工作,与有权势的人打交道,而不是真正与民间社会合作。这给了那些说这都是骗局或内部游说的人弹药。这并不是说这些叙事中没有一丝真相,但潜在的风险仍然存在。我们需要更多的公众意识和广泛的支持基础来实现有效的应对。
如果你真的相信在未来十年内有10%的几率会发生灾难——我认为一个理智的人在仔细查看后应该相信这一点——那么你的第一反应就是:“我们为什么要这样做?这太疯狂了。”一旦你接受了这个前提,这只是一个非常合理的反应。
这位担心AI安全信誉的治理专家
海伦·托纳(Helen Toner),乔治城大学安全与新兴技术中心的代理执行董事,前OpenAI董事会成员
当我进入这个领域时,AI安全更多的是一套哲学思想。如今,它已成为一个蓬勃发展的机器学习子领域,填补了某些关于AI密谋、欺骗或权力寻求的“异想天开”的担忧与我们可以测试和把玩的真实具体系统之间的鸿沟。
“我担心一些AI安全人士激进的AGI时间线估计会让他们陷入‘狼来了’的境地。”
AI治理正在缓慢改善。如果我们有足够的时间来适应,而且治理可以继续缓慢改进,我感觉还不错。如果我们时间不多了,那么我们可能进展太慢了。
我认为GPT-5在华盛顿被普遍视为令人失望的。围绕一个问题存在着两极分化的对话:我们是否会在未来几年内实现AGI和超级智能?还是AI实际上完全是炒作和无用的泡沫?钟摆可能在“我们很快就会拥有超级能力的系统”这一方向上摆得太远了。所以现在它又开始向“这都是炒作”的方向摆动。
我担心一些AI安全人士激进的AGI时间线估计会让他们陷入“狼来了”的时刻。当2027年AGI到来的预测没有实现时,人们会说:“看看这些人把自己搞得多愚蠢。以后再也不要听他们的话了。”如果他们后来改变了主意,或者他们的观点是他们只认为有20%的可能性,但仍然值得关注,那么这并不是理智诚实的反应。我认为这不应该成为以后别人听取你意见的理由,但我确实担心这会是一个巨大的信誉打击。这甚至会影响到那些非常关注AI安全、从未说过非常短时间线的人。
这位现在相信AGI更遥远,并对此感到庆幸的AI安全研究员
杰弗里·拉迪什(Jeffrey Ladish),Palisade Research执行董事
在过去一年里,有两件大事更新了我的AGI时间表。
首先,高质量数据的缺乏被证明是一个比我预想的更大的问题。
其次,2024年9月OpenAI的第一个“推理”模型,即o1,表明强化学习的扩展比我预期的更有效。几个月后,你看到了o1到o3的规模扩展,在数学、编码和科学等更容易验证结果的领域,看到了非常令人印象深刻的性能。但尽管我们看到了持续的进展,本可以更快。
所有这些都将我对完全自动化AI研究和开发的开始的中位估计从三年推迟到可能五到六年。但这些都是凭空捏造的数字。这很困难。我想用“老兄,在这里做预测真的很难”来为所有这些做铺垫。
谢天谢地,我们有了更多时间。我们可能有一个非常短暂的机会之窗,可以真正尝试理解这些系统,然后再让它们变得有能力和战略性,从而对我们控制它们的能力构成真正的威胁。
但看到人们认为我们不再取得进展是令人恐惧的,因为这显然不是事实。我之所以知道这不是事实,是因为我使用这些模型。AI发展方式的一个弊端是,它发展的速度对普通人来说越来越难以辨别。
现在,在某些领域并非如此——比如,看看Sora 2。任何看它的人都很清楚,Sora 2比以前的版本好得多。但是,如果你问GPT-4和GPT-5天空为什么是蓝色的,它们会给你基本相同的答案。这是正确的答案。它已经饱和了告诉你天空为什么是蓝色的能力。因此,我认为目前最能理解AI进展的人是那些实际使用AI进行非常困难的科学问题研究的人。
这位预见到批评者的AGI预言家
丹尼尔·科科塔伊洛(Daniel Kokotajlo),AI Futures Project执行董事;OpenAI举报人;“AI 2027”的首席作者,该情景描绘了从2027年开始,AI在几个月内从“超人程序员”发展到“极其超级智能”系统
AI政策似乎正在恶化,比如今年早些时候由OpenAI和Andreessen Horowitz的高管发起的旨在倡导放松管制议程的“支持AI”超级政治行动委员会[发起],以及那些离谱和/或不诚实的... [内容被截断]
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区