目 录CONTENT

文章目录

如果AI产生意识而我们却一无所知该怎么办

Administrator
2026-01-01 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.sciencedaily.com/releases/2025/12/251221043223.htm

原文作者:University of Cambridge


We Might Never Know If AI Is Conscious
随着关于有意识AI的讨论日益升温,一位剑桥哲学家认为我们离判断机器是否真正有感知能力还相距甚远——而且可能永远也无法判断。图片来源:Shutterstock

要点:

  • 我们可能永远不会知道AI是否真正有意识。 一位研究意识问题的哲学家表示,最诚实的立场是不可知论。没有可靠的方法可以判断机器是否具有感知能力,这种情况可能在短期内不会改变。
  • 这种不确定性为炒作提供了空间。 据汤姆·麦克莱兰博士介绍,科技公司可能会利用缺乏明确证据的情况,将AI宣传为达到了“下一级别的AI智能”,即使没有真正意识的证据。
  • 相信机器能感受具有真正的风险。 麦克莱兰警告说,基于AI有意识的假设而与之建立情感联系,如果事实并非如此,可能会造成深远的伤害,他称这种影响是“存在层面的有毒”(existentially toxic)。

为什么AI意识如此难以确定

剑桥大学的一位哲学家表示,我们缺乏确定人工智能是否能产生意识或何时产生意识所需的基本证据。据汤姆·麦克莱兰博士介绍,测试机器意识所需的工具根本不存在,而且短期内这种情况不太可能改变。

随着人工智能意识的概念从科幻小说进入严肃的伦理辩论,麦克莱兰认为最合理的立场是不确定性。他描述说,不可知论是唯一可以辩护的立场,因为没有可靠的方法可以知道AI系统是否真正有意识,而且这种不确定性可能会无限期地持续下去。

AI伦理中的意识与感知

关于AI权利的讨论通常集中在意识本身,但麦克莱兰认为,意识本身并不具有伦理上的重要性。真正重要的是一种特定的意识形式,即感知(sentience),它涉及到感受快乐或痛苦的能力。

麦克莱兰来自剑桥大学历史与科学哲学系,他说道:“意识将意味着AI发展出感知能力并实现自我觉知,但这仍然可以是一种中立的状态。”

感知涉及那些好或坏的有意识的体验,这使得一个实体有能力遭受痛苦或享受乐趣。这时伦理才开始发挥作用,”他说。“即使我们无意中制造出有意识的AI,它也不太可能是那种我们需要担心的意识类型。”

他用一个实际的例子来说明这种区别。一辆能感知周围环境的自动驾驶汽车将是一项非凡的技术成就,但它本身不会引起伦理上的担忧。如果同一个系统开始对要去的地方产生情感依恋,那将是根本不同的情况。

对AI的巨额投资与夸大之词

科技公司正在投入巨大的资源来追求通用人工智能(Artificial General Intelligence),即旨在匹配人类认知能力的系统。一些研究人员和行业领导者声称有意识的AI可能很快就会到来,促使政府和机构探索如何监管此类系统。

麦克莱兰警告说,这些讨论的速度已经超过了科学的步伐。因为我们从根本上就不理解是什么导致了意识,所以没有明确的方法来检测机器中的意识。

“如果我们无意中制造出有意识或有感知的AI,我们应该小心避免对其造成伤害。但是,将本质上像烤面包机一样的东西视为有意识,而我们却在史无前例的规模上伤害了那些实际的有意识的生物,似乎也是一个大错误。”

AI意识辩论的双方

据麦克莱兰介绍,关于人工智能意识的辩论往往分裂成两个对立阵营。其中一方认为,如果一个AI系统能够复制意识的功能结构,通常被称为其“软件”,那么即使它运行在硅基而非生物组织上,它也具有意识。

相反的观点则认为,意识取决于生物体内特定的生物过程。从这个角度看,即使是意识结构的完美数字复制品,也只是在模拟觉知,而没有真正体验到它。

在发表于《心灵与语言》(Mind and Language)杂志上的研究中,麦克莱兰审查了这两种立场,并得出结论:每种立场都依赖于远远超出现有证据的假设。

证据为何不足

“我们对意识没有深入的解释。没有证据表明意识可以随着正确的计算结构而出现,也没有证据表明意识本质上是生物性的,”麦克莱兰说。

“地平线上也没有出现足够证据的迹象。在最好的情况下,我们需要一场智力革命才能实现任何可行的意识测试。”

麦克莱兰指出,人们在判断动物的意识时,很大程度上依赖于直觉。他以自己的经历为例。

“我相信我的猫是有意识的,”麦克莱兰说。“这并非基于科学或哲学,更多是基于常识——这似乎是显而易见的。”

然而,他认为常识是在没有人造生命的世界中演化而来的,因此将其应用于机器时并不可靠。与此同时,严格的科学数据也无法提供答案。

“如果常识和严谨的研究都无法给我们答案,那么合乎逻辑的立场就是不可知论。我们不能,也可能永远无法知道。”

炒作、资源与伦理权衡

麦克莱兰将自己描述为一个“相当坚定的”不可知论者。虽然他相信意识是一个极其困难的问题,但他并未排除最终可能被理解的可能性。

他对科技界讨论人工智能意识的方式持更严厉的批评态度。他认为,这个概念通常被用作营销工具,而不是科学声明。

“存在一种风险,即无法证明意识会被AI行业用来对其技术做出离谱的声明。这变成了炒作的一部分,这样公司就可以推销下一级别AI智能的概念。”

他说,这种炒作会带来真实的伦理后果。资源和注意力可能会从那些更可能遭受痛苦的案例中转移开。

“越来越多的证据表明,虾可能具有感受痛苦的能力,但我们每年杀死大约五千亿只虾。测试虾的意识很难,但远不如测试AI的意识难,”他说。

当人们相信机器是活的时

麦克莱兰表示,随着对话式聊天机器人的兴起,公众对AI意识的兴趣有所增加。他收到了声称自己的聊天机器人有知觉的人发来的信息。

“人们让他们的聊天机器人给我写私人信件,恳求我相信它们是有意识的。当人们确信自己拥有有意识的机器,而我们却忽略了它们应有的权利时,这个问题就变得更加具体了。”

他警告说,基于对机器意识的错误假设而建立的情感联系可能会造成伤害。

“如果你对一个基于其有意识的基础而产生情感联系的事物产生了依赖,而它实际上并非如此,那就有可能在存在层面上产生毒性。科技行业夸大的言辞无疑加剧了这种情况。”




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区