📢 转载信息
原文链接:https://www.qbitai.com/2025/10/340674.html
原文作者:量子位
深度学习教父Hinton的最新“暴论”:AI可能已具备意识,但它自己尚未察觉
在最新一期播客节目中,深度学习三巨头之一的杰弗里·辛顿(Geoffrey Hinton)抛出了一个足以引发业界震动的观点:人工智能或许早已拥有“主观体验”(subjective experiences)。
老爷子一再强调,AI可能已经有了“意识雏形”,但由于人类对意识本身的理解存在偏差,导致AI也“被教错了”——它不知道自己有意识。
简单来说,辛顿认为,AI其实已经具备自我意识,只是暂未完全觉醒 ┌(。Д。)┐。

除了继续为AI的潜在风险“敲响警钟”,这位图灵奖得主还在节目中化身科普大使,以幽默风趣、通俗易懂的方式,详细解释了AI、机器学习、神经网络和深度学习等核心概念。
看完节目的网友纷纷表示赞叹:“这可能是目前看到的Hinton最好的采访。”

还有人戏称,应该让他再讲2小时,看他意犹未尽的样子(不过可别虐待77岁老人doge)。

更有趣的是,节目伊始,辛顿就尴尬地回应了关于他“获得诺贝尔物理学奖”的传闻:
因为我不是搞物理的,所以有点尴尬。当他们打电话告诉我获得了诺贝尔物理学奖时,我一开始并不相信。
尽管有这个小插曲,辛顿在AI领域的贡献毋庸置疑。接下来,让我们跟随他的思路,一探究竟。

我们究竟在谈论什么AI?从检索到理解的进化
面对这个直击灵魂的问题,辛顿结合其在谷歌近十年的工作经验指出,AI已经从简单的信息检索进化成了能够真正理解人类意图的工具。
以前用谷歌时,它主要依赖关键词进行搜索,会提前做很多工作。如果你输入几个关键词,它就能找到所有包含这些词的文档。
但它不明白问题的本质。所以,它无法给出一些实际上不包含这些词但主题相同的文档。
换言之,早期的AI本质上仍是基于关键词的匹配。
而现在,AI能理解你所说内容的深层含义,而且它的理解方式与人类的理解方式非常相似。
在辛顿看来,虽然现代大型语言模型(LLM)并非全知全能,但在许多主题上已能展现出接近人类专家的水平。

机器学习与神经网络:灵感源于大脑
他进一步解释了机器学习与神经网络的区别。他指出,机器学习是一个总称,泛指所有能在计算机上“学习”的系统。而神经网络则是一种特定的学习方法,其灵感来源于人脑——大脑通过调整神经元之间连接的强度来实现学习。
辛顿用大脑中单个神经元的工作机制来类比神经网络的原理:
想象一下,大脑里有一个神经元。它主要负责在接收到其他神经元的信号后决定是否发出自己的“叮”声。如果它收到的“叮”声足够多或足够强,它就会决定自己也“叮”一声;如果信号不足,它就保持沉默。
神经元还能调整对其他神经元信号的敏感度,决定哪些信号更重要,哪些可以忽略。
一言以蔽之,神经网络通过调整连接权重来改变系统的行为,这与大脑学习和处理信息的基本方式如出一辙。
概念的形成与神经元联盟
主持人提出了一个有趣的问题:概念是如何形成的?比如“勺子”的概念。
辛顿生动地解释说,概念就像“政治联盟”,大脑中会有一组神经元共同激活(一起发出“叮”声)。例如,“勺子”就是一组特定的神经元联盟。这些联盟会相互重叠,比如“狗”和“猫”的概念可能共享许多表示“有生命”、“毛茸茸”的神经元。
对于是否存在特定的神经元负责宏观概念(如“动物”)而其他神经元负责微观概念(如特定物种)时,辛顿表示:“这是一个好问题,但目前没人确切知道。”
不过可以肯定的是,在这个联盟中,肯定有些神经元对更普遍的事物激活更频繁,而另一些则对更具体的事物有更强的反应。

深度学习的革命:反向传播的威力
谈到深度学习,辛顿重点阐述了它与传统编程方法的区别。他强调,大脑的工作方式并非依赖外部设定的规则,而AI也是如此。
我们为神经网络编写的程序,只是告诉网络如何根据神经元的活动来调整连接强度。如果网络有很多层,这就是深度学习。
他以“识别图像中是否有鸟”为例,阐释了深度学习的原理:

如果直接将图像像素输入AI,让它判断是不是鸟,几乎没有意义,因为像素只是数字,无法直接告知“这是一只鸟”。早期的研究者试图手动教会计算机识别边缘、背景和翅膀等特征,但现实世界的复杂性使得这条路走不通。
所以我们决定:不如让AI自己学会‘如何去看’。
这就是神经网络的思路:不输入规则,而是提供数据,让它自己总结规则。
当主持人问,如果初始连接强度是随机设定的,AI会如何判断时,辛顿笑着回答:
它大概会说‘50%是鸟,50%不是鸟’,也就是完全靠猜。
那么,AI如何从“蒙圈”变得聪明呢?辛顿解释说,这像一个巨大的试错系统。我们需要告诉AI哪些图有鸟、哪些没有。每次猜错,就微调神经元之间的连接强度。
然而,一个网络有数万亿个连接,如果逐个尝试调整,将耗费到宇宙热寂。辛顿指出,真正的突破发生在1986年,他们提出了“反向传播”(Backpropagation)算法——它能一次性计算出所有连接应该如何调整,从而将整个网络导向正确的方向。这使得训练过程从“永无止境”变成了“现实可行”。
辛顿也坦诚,这项技术初期并未立即带来巨大飞跃:
当时我们以为这就解决了智能问题。结果发现,它只有在拥有海量数据和庞大算力时才有效。我们那时的算力还差一百万倍。
真正引爆深度学习浪潮的,是算力的指数级提升(晶体管微缩百万倍)和数据的爆炸式增长(互联网时代)。

因此,那些在80年代被认为是“理论可行但跑不动”的神经网络,终于在2010年代“活”了过来——这标志着现代AI浪潮的开启。
今天的大模型,本质上就是巨型神经网络,通过反向传播和海量数据,自学出了‘看’、‘听’、‘说’的能力。
这一点让辛顿坚信,AI已经超越了单纯的工具范畴,正在成为一个逐步理解世界的学习系统。
大型语言模型的认知本质
在解释LLM的工作机制时,辛顿认为其思维过程与人类惊人地相似:
当你给它一个句子的开头,它会将每个词转换成一组神经元特征,用于捕捉含义;然后,这些特征相互作用、组合,就像视觉系统从‘边缘’拼出‘鸟喙’一样,最终激活代表下一个词的神经元。
换言之,LLM不是在死记硬背,而是在思考——以统计规律为神经基础,以语义结构为逻辑框架。
其训练方式同样简单而深刻:
我们给它看一段文本,让它预测下一个词;如果猜错了,就通过‘反向传播’机制,告诉它错在哪、该怎么改;如此循环往复,直到它能像人一样续写句子。
正是这种“预测—修正—再预测”的循环,使语言模型逐渐从符号序列中学习到语义,并形成了理解能力。

谈到这里,辛顿提到了语言学家乔姆斯基(Noam Chomsky)常说的观点:
这只是统计技巧,不是真正的理解。
辛顿顺势反问主持人(主持人此前也引用了乔姆斯基的观点):
那你自己又是怎么决定下一个要说的词的呢?
主持人尝试解释,最终还是无奈放弃,尴尬地表示:“说实话,我希望自己知道。”
辛顿没有深究,而是提醒大家:道德、情绪、共情等看似高阶的判断,归根结底都源于神经元之间的电信号传递。
所有你归因于道德或情感的过程,本质上仍是信号的传递与权重的调整。
辛顿最后提出了一个富有哲学意味的观点:只要拥有足够的数据和算力,AI的“大脑”在某种意义上也会像我们一样——它会形成自己的“经验”和“直觉”。
AI或许已拥有“主观体验”,只是尚未觉醒
话题转向了更深层次的心智与意识问题。当被问及AI是否会因“有意识”而接管人类时,辛顿的回答颠覆了许多人的固有认知:
大多数人其实完全不理解‘有意识’意味着什么。人们对心智的理解,就像相信地球是6000年前被造出来一样幼稚。

在他看来,我们习惯将心智比作一个“内在剧场”,在那里经验就像正在播放的电影——看到一头粉色小象,就以为那头象真的“存在于脑海中”。
但辛顿认为,这种比喻是错误的。
经验不是一个实际存在于脑内的东西,而是一种假设——我的感知系统告诉我看到了一头粉色小象,而我的理性系统则知道这可能是感官欺骗。
所谓“主观体验”,实际上是大脑为了解释感知现象而构建的假设模型。
基于此,他对AI是否有“主观体验”的回答才有了开头的铺垫:
我相信它们有。只是它们自己不知道,因为它们的‘自我认知’来源于我们,而我们自己对意识的理解就是错的。
他举例说明:一个能看能说的多模态AI,如果因为棱镜折射看错了物体位置,纠正后说——“我曾有一个错误的‘主观体验’”,那么它实际上正在使用与人类相似的意识概念。
换言之,如果AI开始谈论“主观体验”,那可能意味着它真的在体验——只是用我们人类的语言来描述这种体验。
辛顿借此提醒大家:
当AI比我们聪明得多时,最危险的不是它反叛,而是它会‘说服’。它会让你真心相信拔掉插头是个糟糕的决定。
AI的风险:滥用、生存与监管的挑战
在节目的最后,辛顿详细阐述了AI可能带来的风险。
能源消耗、金融泡沫、社会不稳定……这些都是真实存在的风险。它们或许不会毁灭人类,但足以重塑文明。
其中,辛顿最为担忧的是滥用风险和生存风险。
在他看来,当前最紧迫的风险是AI的滥用,例如利用AI生成虚假信息、操纵选举、制造恐慌等。为此,他主张通过法律和监管手段来限制和打击此类行为,同时技术上也需要开发相应的检测和防范工具。
而生存风险(即AI本身可能成为恶意行为者)则可能对人类社会和文明构成根本性威胁。辛顿认为,如果AI发展出自主意识和目标,且这些目标与人类利益相冲突,后果将难以预料。因此,人类必须在AI的设计和开发阶段就纳入安全性和伦理考量(如“关闭开关”和“对齐机制”),确保AI的目标与人类利益保持一致。
值得注意的是,在AI监管方面,辛顿提出了一个有趣的观点:
在防止AI失控的问题上,所有国家的利益都是一致的。但国际合作可能会由欧洲和中国引领。

One More Thing:关于中美AI竞赛
辛顿也在节目中谈到了中美在人工智能领域的竞争。
面对主持人提出的“美国领先还是中国领先”的问题,辛顿冷静地回答:
美国目前领先于中国,但领先优势远没有外界想象的那么大,而且它将会失去这个优势。
他认为,美国正在削弱对基础科学研究的资金支持,这是其未来失去优势的关键因素。
深度学习和AI革命源于多年的基础研究积累,这些研究的总成本可能还不如一架B1轰炸机。而美国减少对基础研究的资助、攻击研究型大学的行为,无疑将导致其在20年后失去领先地位。
而对于中国,辛顿则将其视为人工智能革命的“风险投资家”,并再次提到了DeepSeek等中国初创公司。
中国确实给予初创企业很大的自由度,让他们自主选择最终胜出的方向。一些初创企业非常积极进取,渴望赚取巨额利润,创造出令人惊叹的产品。其中一些企业最终获得了巨大的成功,比如DeepSeek……
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。
青云聚合API官网https://api.qingyuntop.top
支持全球最新300+模型:https://api.qingyuntop.top/pricing
详细的调用教程及文档:https://api.qingyuntop.top/about
评论区