📢 转载信息
原文链接:https://www.wired.com/story/book-excerpt-a-world-appears-michael-pollan/
原文作者:Michael Pollan
布莱克·勒莫因(Blake Lemoine)的事件如今被视为人工智能炒作的高潮。它将整个有意识的AI概念推向公众视野一两个新闻周期,但也引发了计算机科学家和意识研究人员之间一场持续加剧的对话。尽管科技界继续公开贬低这个想法(以及可怜的勒莫因),但在私下里,他们已经开始更认真地对待这种可能性。一个有意识的AI可能缺乏明确的商业理由(你如何为其盈利?),并带来棘手的道德困境(我们该如何对待一个有能力受苦的机器?)。然而,一些AI工程师开始认为,通用人工智能的圣杯——一个不仅超级智能,而且拥有人类水平的理解力、创造力和常识的机器——可能需要某种类似于意识的东西才能实现。在科技界,围绕有意识AI的非正式禁忌——即一个会令公众感到毛骨悚然的前景——突然开始瓦解。

购买本书:
如果您通过故事中的链接购买商品,我们可能会赚取佣金。这有助于支持我们的新闻工作。 了解更多。
转折点发生在2023年夏天,当时一组由19位顶尖计算机科学家和哲学家组成的团体发表了一份长达88页的报告,题为“人工智能中的意识”(Consciousness in Artificial Intelligence),非正式地被称为“巴特林报告”(Butlin report)。几天之内,似乎AI和意识科学界的所有人都读了它。这份报告草案的摘要中有一句引人注目的陈述:“我们的分析表明,目前没有任何AI系统具有意识,但也表明,构建有意识的AI系统没有明显的障碍。”
作者承认,召集该小组并撰写报告的部分灵感来自于“布莱克·勒莫因的案例”。一位合作作者告诉《科学》杂志:“如果AI能给人造成有意识的印象,那么对科学家和哲学家来说,就成了一个亟待解决的问题。”
但真正引起大家关注的是预印本摘要中的那句话:“构建有意识的AI系统没有明显的障碍。”当我第一次读到这些话时,我感到一个重要的门槛被跨越了,而且不仅仅是技术上的门槛。不,这关系到我们物种的本质。
在不远的将来,人类有一天会发现一个完全有意识的机器诞生于世,这对人类意味着什么?我猜测那将是一个哥白尼式的时刻,会突然让我们感到自己不那么重要、不那么特殊。几千年来,我们人类一直通过与“低等”动物的对立来定义自己。这涉及到否认动物拥有那些被认为是人类独有的特质,比如情感(笛卡尔最明显的错误之一)、语言、理性、意识。在过去的几年里,随着科学家们证明许多物种都具有智力、意识,有感情,并使用语言和工具,这些区分大多已经瓦解,挑战了几个世纪以来的人类特殊论。这一仍在进行中的转变,引发了关于我们身份以及我们对其他物种的道德义务的棘手问题。
对于AI来说,对我们崇高自我概念的威胁来自完全不同的方向。现在,我们人类必须在与其他动物而不是AI的关系中定义自己。随着计算机算法在纯粹的脑力方面超越我们——轻松地在国际象棋、围棋和各种“高级”思维(如数学)中击败我们——我们至少可以感到安慰的是,我们(以及许多其他动物物种)仍然拥有意识的恩赐和负担,即感受和拥有主观体验的能力。从这个意义上说,AI可能充当一个共同的对手,将人类和其他动物更紧密地联系在一起:我们对抗它,有生命的对抗机器。这种新的团结将构成一个感人的故事,对被邀请加入“有意识团队”的动物来说可能是个好消息。但如果AI开始挑战人类——或者说动物——对意识的垄断地位会怎样呢?那时的我们将成为什么?
我认为这是一个非常令人不安的前景,尽管我不太确定原因何在。我已经开始适应与其他动物分享意识(对我来说,甚至可能与植物分享),并且很乐意将它们纳入一个不断扩大的道德关怀圈。但机器呢?
这可能源于我的背景和教育。我从小浸淫在人文科学的温暖汤池中,尤其是文学、历史和艺术,它们一直将人类意识视为值得捍卫的特殊之物。我们文明所珍视的一切几乎都是人类意识的产物:艺术和科学、高雅文化和低俗文化、建筑、哲学、宗教、政府、法律、伦理和道德,更不用说价值观念本身了。我猜想,有意识的计算机或许能为这些荣耀增添一些新的、迄今为止无法想象的东西。我们可以抱有希望。迄今为止,AI写的诗歌比打油诗好不了多少;缺乏意识可能解释了为什么它们连一丝原创性或新颖的见解都没有。但是,如果(或当)有意识的AI开始创作非常好的诗歌时,我们会作何感想?
我们为什么要假设有意识的机器会比有意识的人类更具美德?
作为一个人文主义者,我为意识的动物垄断地位可能被打破而感到挣扎。但我遇到了其他类型的人(其中一些自称为超人类主义者),他们对这种未来持更乐观的态度。一些AI研究人员赞成努力构建有意识的机器,因为他们认为,作为拥有自身情感的实体,有意识的机器比仅仅是智能的计算机更有可能发展出同理心。一位神经科学家和一位AI研究人员试图说服我,构建有意识的AI是道义上的当务之急。为什么?因为另一种选择是那些极其聪明但没有感情的AI,它们会无情地追求自己的目标,因为它缺乏源于我们意识和共同脆弱性的所有道德约束。只有有意识的AI才可能发展出同理心,从而饶过我们。我没有夸大其词,这就是他们的论点。
人们不禁要问,这些人是否读过《弗兰肯斯坦》!弗兰肯斯坦医生赋予了他的造物不仅是生命,还有意识,而这正是问题的关键。玛丽·雪莱的小说记录了“一个有感知力和理性动物的诞生”,而正是这两种特质的结合决定了怪物的命运。驱使怪物寻求复仇并走向杀戮的,不是它的理性,而是它的情感创伤。
怪物在被人类社会排斥后向弗兰肯斯坦医生抱怨说:“我所到之处都看到幸福,而我却被永远地排斥在外。”“我本是仁慈善良的;是痛苦使我变成了恶魔。”怪物推理的能力无疑帮助它实现了邪恶的计划,但正是它的意识——它的感情——提供了动机。我们为什么要假设有意识的机器会比有意识的人类更具美德呢?
令人称奇的是,关于人工智能意识的巴特林报告代表了该领域的一种共识观点;我采访的大多数计算机科学家都赞同其结论。然而,我阅读这份报告(并采访了其一位合作作者)的时间越长,我就越开始质疑其关于人工智能意识指日可待的结论。值得称赞的是,作者们一丝不苟地阐述了他们的假设和方法,这两点都让我怀疑他们是否将大胆的结论建立在了有问题的基础之上。
在报告的第一页,这些计算机科学家和哲学家就阐述了他们的指导性假设:“我们采纳计算功能主义作为工作假设,即执行正确类型的计算对于意识是必要和充分的。”计算功能主义的出发点是,意识本质上是一种软件,运行在可能是大脑或计算机的硬件上——这个理论完全是持中立态度的。但计算功能主义正确吗?作者们并不完全准备将自己钉在这一主张上,只说它是“主流的——尽管存在争议”。即便如此,他们还是会出于“务实的原因”继续这一假设。
这种坦诚是值得称赞的,但我认为我们不应该在这样一个需要巨大信仰飞跃的基础上行事。
就报告而言,“系统的物质基础”——即它是大脑还是计算机——“对意识无关……它可以在多种基质中存在,不仅仅是在生物大脑中。”任何可以运行必要算法的基质都可以。作者们表示:“我们暂时假设我们所熟知的计算机原则上能够实现足以产生意识的算法,但我们并不认为这是确定的。”对不确定性的承认远远不够。报告中没有受到质疑的是大脑即计算机的比喻——意识软件运行的硬件。在这里,我们遇到了一个将比喻当作事实来对待的现象。事实上,整篇论文及其结论都取决于这个比喻的有效性。
比喻可以是强大的思考工具,但前提是我们不要忘记它们是比喻——将一物与另一物进行类比,这种类比是不完美或片面的。这两个事物之间的差异与相似之处同等重要,但在围绕AI的热潮中,这些差异似乎被忽略了。正如控制论专家阿图罗·罗森布鲁特(Arturo Rosenblueth)和诺伯特·维纳(Norbert Wiener)多年前指出的那样,“比喻的代价是永恒的警惕”。除了这份报告的作者之外,整个AI领域似乎都在这个比喻上放松了警惕。
当我消化完巴特林报告时,我所担心的哥白尼式时刻似乎比报告的大胆结论所暗示的要遥远得多。在回顾了报告涵盖的六种意识理论后,很明显,它们都通过假定意识可以简化为某种算法,从而为自己设置了有利的条件。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区