目 录CONTENT

文章目录

人工智能永远不会有意识

Administrator
2026-02-24 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.wired.com/story/book-excerpt-a-world-appears-michael-pollan/

原文作者:Michael Pollan


布莱克·勒莫因(Blake Lemoine)的事件如今被视为人工智能炒作的高潮。它将整个有意识的AI概念推向公众视野一两个新闻周期,但也引发了计算机科学家和意识研究人员之间一场持续加剧的对话。尽管科技界继续公开贬低这个想法(以及可怜的勒莫因),但在私下里,他们已经开始更认真地对待这种可能性。一个有意识的AI可能缺乏明确的商业理由(你如何为其盈利?),并带来棘手的道德困境(我们该如何对待一个有能力受苦的机器?)。然而,一些AI工程师开始认为,通用人工智能的圣杯——一个不仅超级智能,而且拥有人类水平的理解力、创造力和常识的机器——可能需要某种类似于意识的东西才能实现。在科技界,围绕有意识AI的非正式禁忌——即一个会令公众感到毛骨悚然的前景——突然开始瓦解。


Image may contain Book Publication and Text
Courtesy of Penguin Press

购买本书:

如果您通过故事中的链接购买商品,我们可能会赚取佣金。这有助于支持我们的新闻工作。 了解更多

转折点发生在2023年夏天,当时一组由19位顶尖计算机科学家和哲学家组成的团体发表了一份长达88页的报告,题为“人工智能中的意识”(Consciousness in Artificial Intelligence),非正式地被称为“巴特林报告”(Butlin report)。几天之内,似乎AI和意识科学界的所有人都读了它。这份报告草案的摘要中有一句引人注目的陈述:“我们的分析表明,目前没有任何AI系统具有意识,但也表明,构建有意识的AI系统没有明显的障碍。”

作者承认,召集该小组并撰写报告的部分灵感来自于“布莱克·勒莫因的案例”。一位合作作者告诉《科学》杂志:“如果AI能给人造成有意识的印象,那么对科学家和哲学家来说,就成了一个亟待解决的问题。”

但真正引起大家关注的是预印本摘要中的那句话:“构建有意识的AI系统没有明显的障碍。”当我第一次读到这些话时,我感到一个重要的门槛被跨越了,而且不仅仅是技术上的门槛。不,这关系到我们物种的本质。

在不远的将来,人类有一天会发现一个完全有意识的机器诞生于世,这对人类意味着什么?我猜测那将是一个哥白尼式的时刻,会突然让我们感到自己不那么重要、不那么特殊。几千年来,我们人类一直通过与“低等”动物的对立来定义自己。这涉及到否认动物拥有那些被认为是人类独有的特质,比如情感(笛卡尔最明显的错误之一)、语言、理性、意识。在过去的几年里,随着科学家们证明许多物种都具有智力、意识,有感情,并使用语言和工具,这些区分大多已经瓦解,挑战了几个世纪以来的人类特殊论。这一仍在进行中的转变,引发了关于我们身份以及我们对其他物种的道德义务的棘手问题。

对于AI来说,对我们崇高自我概念的威胁来自完全不同的方向。现在,我们人类必须在与其他动物而不是AI的关系中定义自己。随着计算机算法在纯粹的脑力方面超越我们——轻松地在国际象棋、围棋和各种“高级”思维(如数学)中击败我们——我们至少可以感到安慰的是,我们(以及许多其他动物物种)仍然拥有意识的恩赐和负担,即感受和拥有主观体验的能力。从这个意义上说,AI可能充当一个共同的对手,将人类和其他动物更紧密地联系在一起:我们对抗它,有生命的对抗机器。这种新的团结将构成一个感人的故事,对被邀请加入“有意识团队”的动物来说可能是个好消息。但如果AI开始挑战人类——或者说动物——对意识的垄断地位会怎样呢?那时的我们将成为什么?


我认为这是一个非常令人不安的前景,尽管我不太确定原因何在。我已经开始适应与其他动物分享意识(对我来说,甚至可能与植物分享),并且很乐意将它们纳入一个不断扩大的道德关怀圈。但机器呢?

这可能源于我的背景和教育。我从小浸淫在人文科学的温暖汤池中,尤其是文学、历史和艺术,它们一直将人类意识视为值得捍卫的特殊之物。我们文明所珍视的一切几乎都是人类意识的产物:艺术和科学、高雅文化和低俗文化、建筑、哲学、宗教、政府、法律、伦理和道德,更不用说价值观念本身了。我猜想,有意识的计算机或许能为这些荣耀增添一些新的、迄今为止无法想象的东西。我们可以抱有希望。迄今为止,AI写的诗歌比打油诗好不了多少;缺乏意识可能解释了为什么它们连一丝原创性或新颖的见解都没有。但是,如果(或当)有意识的AI开始创作非常好的诗歌时,我们会作何感想?

我们为什么要假设有意识的机器会比有意识的人类更具美德?

作为一个人文主义者,我为意识的动物垄断地位可能被打破而感到挣扎。但我遇到了其他类型的人(其中一些自称为超人类主义者),他们对这种未来持更乐观的态度。一些AI研究人员赞成努力构建有意识的机器,因为他们认为,作为拥有自身情感的实体,有意识的机器比仅仅是智能的计算机更有可能发展出同理心。一位神经科学家和一位AI研究人员试图说服我,构建有意识的AI是道义上的当务之急。为什么?因为另一种选择是那些极其聪明但没有感情的AI,它们会无情地追求自己的目标,因为它缺乏源于我们意识和共同脆弱性的所有道德约束。只有有意识的AI才可能发展出同理心,从而饶过我们。我没有夸大其词,这就是他们的论点。

人们不禁要问,这些人是否读过《弗兰肯斯坦》!弗兰肯斯坦医生赋予了他的造物不仅是生命,还有意识,而这正是问题的关键。玛丽·雪莱的小说记录了“一个有感知力和理性动物的诞生”,而正是这两种特质的结合决定了怪物的命运。驱使怪物寻求复仇并走向杀戮的,不是它的理性,而是它的情感创伤。

怪物在被人类社会排斥后向弗兰肯斯坦医生抱怨说:“我所到之处都看到幸福,而我却被永远地排斥在外。”“我本是仁慈善良的;是痛苦使我变成了恶魔。”怪物推理的能力无疑帮助它实现了邪恶的计划,但正是它的意识——它的感情——提供了动机。我们为什么要假设有意识的机器会比有意识的人类更具美德呢?

令人称奇的是,关于人工智能意识的巴特林报告代表了该领域的一种共识观点;我采访的大多数计算机科学家都赞同其结论。然而,我阅读这份报告(并采访了其一位合作作者)的时间越长,我就越开始质疑其关于人工智能意识指日可待的结论。值得称赞的是,作者们一丝不苟地阐述了他们的假设和方法,这两点都让我怀疑他们是否将大胆的结论建立在了有问题的基础之上。

在报告的第一页,这些计算机科学家和哲学家就阐述了他们的指导性假设:“我们采纳计算功能主义作为工作假设,即执行正确类型的计算对于意识是必要和充分的。”计算功能主义的出发点是,意识本质上是一种软件,运行在可能是大脑或计算机的硬件上——这个理论完全是持中立态度的。但计算功能主义正确吗?作者们并不完全准备将自己钉在这一主张上,只说它是“主流的——尽管存在争议”。即便如此,他们还是会出于“务实的原因”继续这一假设。

这种坦诚是值得称赞的,但我认为我们不应该在这样一个需要巨大信仰飞跃的基础上行事。

就报告而言,“系统的物质基础”——即它是大脑还是计算机——“对意识无关……它可以在多种基质中存在,不仅仅是在生物大脑中。”任何可以运行必要算法的基质都可以。作者们表示:“我们暂时假设我们所熟知的计算机原则上能够实现足以产生意识的算法,但我们并不认为这是确定的。”对不确定性的承认远远不够。报告中没有受到质疑的是大脑即计算机的比喻——意识软件运行的硬件。在这里,我们遇到了一个将比喻当作事实来对待的现象。事实上,整篇论文及其结论都取决于这个比喻的有效性。

比喻可以是强大的思考工具,但前提是我们不要忘记它们是比喻——将一物与另一物进行类比,这种类比是不完美或片面的。这两个事物之间的差异与相似之处同等重要,但在围绕AI的热潮中,这些差异似乎被忽略了。正如控制论专家阿图罗·罗森布鲁特(Arturo Rosenblueth)和诺伯特·维纳(Norbert Wiener)多年前指出的那样,“比喻的代价是永恒的警惕”。除了这份报告的作者之外,整个AI领域似乎都在这个比喻上放松了警惕。


将神经元比作晶体管,是对其复杂性的严重低估。

考虑一下硬件和软件之间的鲜明区别。将硬件与软件在计算机中分离的美妙之处在于,许多不同的程序可以在同一台机器上运行;软件和它所编码的知识可以在硬件“死亡”后仍然存在。这种分离也反映了我们内心深处对二元论的直觉——即遵循笛卡尔的观点,可以在精神物质和物理物质之间划出清晰的界限。但在大脑中,硬件和软件之间的区别根本不存在;在那里,软件就是硬件,反之亦然。记忆是神经元之间连接的物理模式,它既不是硬件也不是软件,而是两者兼有。

事实上,发生在你身上的一切——你所经历、学习或记住的一切——都会永久性地改变你大脑的物理结构,重新连接其连接方式。(从这个意义上说,大脑中不存在二元论;精神物质永远无法与物理物质完全分离。)用各种不同基质运行相同意识算法的想法,在基质本身——大脑——正在被其上运行的任何信息(或“意识算法”)持续物理重构的情况下,是毫无意义的。你的大脑在物质上与我的不同,正是因为它被不同的生活经历塑造了,也就是被意识本身塑造了。大脑根本不是可互换的,无论是在计算机之间还是在彼此之间。

几乎你在任何一个点上深入探究,计算机即大脑的比喻都会失效。计算机科学家对待大脑中的神经元,就像对待芯片上的晶体管一样,由电流脉冲触发或关闭。这种类比有一些道理,但事实是,电流并非影响神经元放电的唯一因素。大脑中还充斥着化学物质,包括神经调节剂和激素,它们强烈影响神经元的行为,不仅影响它们是否放电,还影响放电的强度。这就是为什么精神药物可以深刻地改变意识(但对计算机没有明显影响)。神经元的活动还受到穿过大脑的波状振荡的影响;这些振荡的不同频率与不同的精神活动相关,例如意识与无意识、专注注意力和做梦(以及睡眠的其他阶段)。

将神经元比作晶体管,是对其复杂性的严重低估。与芯片上的晶体管相比,大脑中的神经元是大量互连的,每个神经元直接与多达10,000个其他神经元通信,形成的网络如此复杂,以至于我们离绘制其连接的最粗略地图都还有几十年的路要走。在计算机科学中,人们对“深度人工神经网络”的出现大加赞扬——这是一种据说模仿大脑的机器学习架构,它通过分层排列海量处理器,使网络能够处理和学习海量数据。这当然令人印象深刻,但最近的一项研究表明,单个皮层神经元所能做的一切,就是一个完整的深度人工神经网络所能做的一切。

是的,计算机在许多方面确实与大脑相似,计算机科学通过模拟大脑的各种方面和操作取得了长足的进步。但认为大脑和计算机在任何方面都可以互换——这是计算功能主义的前提——无疑是牵强的。然而,这不仅是巴特林报告的基础,也是该领域大部分的基础。不难看出原因何在。如果大脑是计算机,那么足够强大的计算机就应该能够做到大脑所做的一切,包括产生意识。这个前提几乎保证了结论。换句话说,是报告作者们自己移除了构建有意识AI的最大“障碍”——即认为大脑与计算机存在关键差异的障碍。

报告的第二个方面让我怀疑其结论的可信度,那就是它提出的人工智能是否真正具有意识的判断标准。这是一个严峻的挑战。引用勒莫因事件(无论是否公正),作者们指出,AI很容易愚弄人类,让人相信它们有意识,而实际上它们没有。(由于我们容易拟人化和迷信,可能是我们自己欺骗了自己。)当AI已经学习了几乎所有关于意识的言论时,“可报告性”(询问AI本身这一哲学术语)将不再有效。解决这一困境的一种方法是,从AI训练的数据集中删除所有关于意识(以及推测中的情感和情绪)的引用,然后看看它是否还能令人信服地谈论自己有意识。

相反,作者们提议,我们应该寻找AI意识的“指标”,这些指标应与所涉及的各种意识理论的预测相匹配。因此,例如,如果一个AI的设计包含一个工作空间,将各种信息流汇集在一起,但只有在这些信息流竞争进入该工作空间之后,这看起来才像全局工作空间理论,因此可能被视为有意识的。报告回顾了大约六种意识理论,确定了AI需要表现出哪些“指标”才能满足每一种理论,从而被认为是潜在有意识的。

这里的问题是(嗯,其中一个问题):它提议我们用来衡量AI的意识理论中,没有一个理论是接近被任何人满意地证明的。那这算什么样的证据标准?更重要的是,许多这些理论都可以在AI的设计中被模拟出来,这不足为奇,因为它们都基于意识是计算这一理念。我们就这样循环往复。

当我消化完巴特林报告时,我所担心的哥白尼式时刻似乎比报告的大胆结论所暗示的要遥远得多。在回顾了报告涵盖的六种意识理论后,很明显,它们都通过假定意识可以简化为某种算法,从而为自己设置了有利的条件。

我也对这些理论所缺失的内容印象深刻。它们对具身性——即意识可能依赖于同时拥有身体和大脑——或任何与生物学相关的方面都毫无提及。理论也没有提及有意识的主体。汇集到全局工作空间的信息(或整合信息理论(IIT)中的信息)的接收者究竟是谁或什么?感觉在使经验有意识方面起着什么作用?

最后这一点并未被作者们忽视,他们指出了大多数当前理论中“情感”(affect)的缺失,并建议该领域应更多关注有意识的机器是否会拥有“真实”的感情,因为如果它们真的有,我们将面临一场道德和伦理危机。“任何有能力有意识地受苦的实体都应受到道德考量,”报告指出。(但受苦难道不总是伴随着意识吗?)报告接着说:“这意味着,如果我们未能承认有意识AI系统的意识,我们可能会冒着造成或允许道义上重大的伤害的风险。”我们会亏欠那些能受苦的机器什么?我们真的想在这个世界上增加更多的痛苦吗?

除了对感觉这种高度推测性的讨论(作为制造有意识机器带来的麻烦的副产品),在AI领域,关于意识的讨论仍然是一如既往地抽象——无情、无身体、完全不顾及生物学。当我向一位致力于构建有意识AI的研究人员提出“受苦的计算机”的难题时,他挥手将问题搁置一旁,解释说可以通过对算法进行简单的修正来抵消:“我们完全可以调高快乐的刻度。”


改编自迈克尔·波伦的《世界显现:一场意识之旅》(A World Appears: A Journey into Consciousness)。版权所有 ©2026,迈克尔·波伦。经企鹅出版社(Penguin Press,企鹅出版集团旗下,隶属企鹅兰登书屋有限责任公司)许可出版。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区