📢 转载信息
原文链接:https://www.sciencedaily.com/releases/2025/12/251221043223.htm
原文作者:University of Cambridge
要点:
- 我们可能永远不会知道AI是否真正有意识。 一位研究意识的哲学家表示,最诚实的立场是不可知论。没有可靠的方法来判断机器是否具有感知能力,这种情况可能在短期内不会改变。
- 这种不确定性为炒作留下了空间。 根据Tom McClelland博士的说法,科技公司可能会利用缺乏明确证据的情况,将AI宣传为达到了“下一级别的AI智能”,即使没有真正的意识证明。
- 相信机器有感觉会带来真正的风险。 McClelland警告说,基于AI有意识的假设而形成情感联系,但实际上它没有意识,这可能会造成深远伤害,他称之为“存在上的毒害”效应。
为什么AI意识如此难以确定
剑桥大学的一位哲学家表示,我们缺乏确定人工智能是否能产生意识或何时发生所需的基本证据。根据Tom McClelland博士的说法,测试机器意识所需的工具根本不存在,而且这种情况在短期内不太可能改变。
随着人工智能意识的概念从科幻小说走向严肃的伦理辩论,McClelland认为最合理的立场是不确定性。他将不可知论描述为唯一可辩护的立场,因为没有可靠的方法可以知道一个AI系统是否真正有意识,而且这种不确定性可能会无限期地持续下去。
AI伦理中的意识与感知能力
关于AI权利的讨论通常集中在意识本身,但McClelland认为意识本身并不具有伦理重要性。真正重要的是一种特定的意识形式,称为感知能力(sentience),它涉及到感受快乐或痛苦的能力。
McClelland来自剑桥大学历史与科学哲学系,他说:“意识会使AI发展出感知能力并变得具有自我意识,但这仍然可以是一种中立状态。”
“感知能力涉及到好的或坏的意识体验,这使得一个实体能够遭受痛苦或享受乐趣。这时伦理才介入其中,”他说。“即使我们不小心制造出了有意识的AI,它也不太可能是我们需要担心的那种意识。”
他用一个实际的例子来说明这种区别。一辆能感知周围环境的自动驾驶汽车将是一项了不起的技术成就,但它本身不会引起伦理关注。如果同一个系统开始对它要去的地方产生情感依恋,那将是完全不同的情况。
关于AI的巨额投资和巨大声明
科技公司正在为追求通用人工智能(AGI)投入巨大的资源,AGI旨在匹配人类的认知能力。一些研究人员和行业领导者声称有意识的AI可能很快就会到来,促使政府和机构探索如何监管此类系统。
McClelland警告说,这些讨论的速度已经超过了科学进展。因为我们从根本上就不了解意识的成因,所以没有明确的方法来检测机器中的意识。
“如果我们不小心制造出有意识或有感知能力的AI,我们应该小心避免伤害。但是,将本质上像是烤面包机的东西视为有意识,而我们却在史无前例的规模上伤害着实际有意识的生物,这似乎也是一个大错误。”
AI意识辩论的双方
根据McClelland的说法,关于人工智能意识的辩论往往分裂成两个对立的阵营。其中一方认为,如果一个AI系统能够复制意识的功能结构,通常被称为其“软件”,那么即使它运行在硅基而非生物组织上,它也会是有意识的。
对立的观点认为,意识取决于生物体内特定的生物过程。从这个角度来看,即使是意识结构的完美数字复制品,也只是模拟了感知能力,而没有真正体验到它。
在发表于《Mind and Language》期刊上的研究中,McClelland 考察了这两种立场,并得出结论:每种立场都依赖于远远超出现有证据的假设。
证据为何不足
McClelland说:“我们对意识没有深刻的解释。没有证据表明意识可以随着正确的计算结构出现,或者说意识本质上是生物性的。”
“地平线上也没有出现足够证据的迹象。在最好的情况下,我们需要一场智力革命才能获得任何可行的意识测试。”
McClelland指出,人们在判断动物的意识时,很大程度上依赖于直觉。他以自己的经历为例。
“我相信我的猫是有意识的,”McClelland说。“这更多是基于常识——这似乎很明显——而不是科学或哲学。”
然而,他认为常识是在没有人工生命体的世界中演化而来的,这使得它在应用于机器时变得不可靠。与此同时,硬性的科学数据也无法提供答案。
“如果常识和严谨的研究都无法给我们答案,那么合乎逻辑的立场就是不可知论。我们不能,也可能永远不会知道。”
炒作、资源与伦理权衡
McClelland将自己描述为一个“比较坚定的”不可知论者。虽然他认为意识是一个极其困难的问题,但他并未排除最终可能被理解的可能性。
他对科技行业讨论人工智能意识的方式持更批判的态度。他认为这个概念常常被用作营销工具,而非科学声明。
“存在一种风险,即无法证明意识这一点会被AI行业利用,来对其技术发表耸人听闻的言论。它成为了炒作的一部分,这样公司就可以推销下一级别的AI智能的理念。”
他说,这种炒作带来了真实的伦理后果。资源和注意力可能会从那些遭受痛苦的可能性远大于AI的案例中转移开。
“越来越多的证据表明虾可能具有痛苦的能力,但我们每年要杀死大约五千亿只虾。测试虾的意识很难,但远不如测试AI的意识难,”他说。
当人们相信机器是活着的
McClelland表示,随着对话式聊天机器人的兴起,公众对AI意识的兴趣也随之增加。他收到了来自相信自己的聊天机器人有感知能力的人的来信。
“人们让他们的聊天机器人给我写私人信件,恳求我相信它们是有意识的。当人们确信他们拥有有意识的机器,而我们却在无视它们应有的权利时,这个问题就变得更加具体了。”
他警告说,基于对机器意识的错误假设而形成情感联系是可能造成伤害的。
“如果你与一个基于其有意识这一前提的事物建立了情感联系,而它实际上没有,那就有可能造成存在上的毒害。科技行业的夸大其词肯定加剧了这种情况。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区