这篇文章,其实是我在 YouTube 首页偶然刷到 杰弗里·辛顿(Geoffrey Hinton) 这场 What Is Understanding? – Geoffrey Hinton - IASEAI 2025 演讲之后写下来的。

老实说,一开始就是被推荐算法推到眼前,顺手点开,结果越听越觉得厉害,听完甚至有点被惊艳了。一方面忍不住感慨,YouTube 的推荐算法有时候确实强得离谱,居然能在一堆日常信息流里,精准把这样一场演讲推到你面前;另一方面又不得不感叹,真正的大佬就是不一样。辛顿没有故作高深,也没有堆砌术语,而是用一种很朴素、很平静的方式,结合自己几十年的亲身经历,把神经网络这条路线是怎么一路走到今天的,慢慢讲出来。那种感觉很特别,像是在听一个亲历者回望历史:语气并不张扬,看似举重若轻,实际上句句都在点本质。

在过去几年里,我们谈大语言模型(Large Language Model,LLM)时,最常见的问题往往是:它到底聪不聪明?会不会推理?是不是只是下一个词预测器?可辛顿把问题往前推了一步。他问的不是模型会不会,而是一个更难也更根本的问题:

我们究竟把“理解”当成什么?

这个问题之所以重要,是因为如果连理解的定义都没想清楚,那么围绕大模型的许多争论——它到底有没有理解、是不是只是高级自动补全(autocomplete)、为什么会出错——最后都只能停留在各说各话。

而且,提出这个问题的人偏偏是辛顿。

如果对 AI 发展稍有了解,就很难绕开这个名字。杰弗里·辛顿一般被视为深度学习的重要奠基者之一,长期推动人工神经网络、反向传播(back-propagation)、分布式表示等方向的发展。2018 年,他与 Yann LeCun、Yoshua Bengio 一起获得图灵奖;2024 年,他又获得诺贝尔物理学奖。换句话说,这不是一个站在场外评论 AI 的人,而是亲手参与搭建现代神经网络路线的人。

这场演讲本身的背景也很值得注意。IASEAI 2025 关注的是人工智能的安全、伦理与未来影响,而辛顿的报告恰好落在最核心的一点上:如果我们真的在制造能够理解的系统,那么我们需要先承认,它们理解世界的方式,可能并没有想象中那样陌生。

为什么现在必须重新讨论“理解”

辛顿开场用了一个很巧的类比。

他说,人类要真正应对气候变化,第一步不是直接讨论政策,而是科学界先对“气候变化由什么造成”达成共识。没有这一步,后面的行动就会失焦。

他想说的是,大语言模型也是一样。今天很多人争论它们到底懂不懂,其实表面上是在谈模型,深处却是在谈人类自己是怎么理解的。如果你脑中默认的是一套理解必须像逻辑证明那样展开的模型,而别人脑中默认的是一套理解是从大量学习中逐渐涌现出来的能力,那最后当然很难说到一块去。

说到底,这场争论不只是技术路线之争,更是认知观之争。

人工智能曾经长期分成两派

辛顿在演讲里把过去几十年 AI 的主流分歧,概括成了两条路线:逻辑主义生物启发路线

逻辑主义像数学里的公式化证明

先说逻辑主义。

这一路线在 AI 早期占据了很长时间的主导地位。它相信,智能的核心是推理;而推理,最好像数学里的公式化证明那样展开。你先定义符号,给出严格规则,再从前提一步一步推出结论。每一步都清楚、可检验、最好没有歧义。

如果把这种思路套到人类理解上,就会自然得到一个结论:知识应该是一组明确的符号命题,像一套写在脑中的逻辑表达式。于是,研究重点就变成了两件事:第一,知识该如何被表示;第二,这些表示如何按照规则被操作。

这套想法很有魅力,因为它整洁、清晰,而且非常符合传统计算机科学的直觉。你几乎能想象一个系统坐在那里,像做几何证明一样,一条一条推导出答案。

问题是,真实的人脑似乎并不是这么工作的。

生物启发路线更像复杂系统中的涌现

辛顿支持的是另一条路,也就是生物启发路线。

如果说逻辑主义像数学证明,那么生物启发路线更像复杂系统里的涌现(emergence)。它不假设一开始就有一套清清楚楚的规则,而是认为:当大量简单单元发生相互作用时,整体会长出比局部更复杂的能力。

这有点像蚁群。单只蚂蚁其实很简单,但大量蚂蚁一起活动,会表现出寻路、分工、协同这种看上去近乎聪明的行为。又比如天气系统,局部只是温度、气压、湿度的变化,可整体上却会涌现出台风、季风、锋面这些复杂现象。

辛顿的意思是,人类智能更像后一种东西。它不是先写好一套规则,再去执行;它更像是通过大量经验,不断调整神经连接,最后让能力从网络内部慢慢长出来。

按照这条路线,学习不是附属品,学习才是起点。推理当然重要,但推理也许不是地基,而是后来才长出来的一层楼。

2012 年之后,天平彻底开始倾斜

这两条路线曾经长期并存,但 2012 年之后,局面几乎发生了决定性变化。

那一年,在 ImageNet 图像识别竞赛上,使用深度神经网络并通过反向传播训练的系统,把错误率一下子拉开了。这个结果对外界的冲击非常大,因为它不只是赢了一场比赛,它等于在公开场合证明:依靠学习得到的分布式表示,真的可以比精心设计的传统方法更有效。

从那之后,计算机视觉界几乎迅速转向神经网络。再往后,神经网络一路扩展到语音、翻译、生成,再到今天的大语言模型。可以说,从 2010 年代中期开始,人们口中的 AI,越来越多地指向人工神经网络,而不是早年的符号推理系统。

但即便这样,仍有很多人相信:神经网络也许能看图,能听语音,但它做不好语言。

这很有意思。因为如果说世界上有哪个领域最像符号操作,那语言看上去就是最典型的一个。输入是词,输出还是词,似乎天生就该交给符号主义处理。

也正因为如此,语言才成了最后、也最关键的一块阵地。

语言为什么会成为最后的战场

辛顿在演讲里专门谈到了语言学界长期的怀疑,尤其是对乔姆斯基(Chomsky)传统的批评。

他不认同语言不是学来的这种看法。在辛顿看来,语言之所以让很多人误以为它必须依赖先天规则,是因为大家太习惯从句法出发思考问题,却没有真正面对意义这个更难的问题。

句法当然重要,规则也很重要,但光有规则不够。真正麻烦的是:

一个词为什么有意义?一句话为什么会被理解?

而这正是辛顿想重新回答的地方。

词的意义,过去其实也有两种看法

围绕一个词的意义来自哪里,过去大致有两种经典思路。

一种更接近符号主义。它认为,一个词的意义来自它和其他词之间的关系。比如一个动词的意义,要看它和什么主语搭配、和什么宾语搭配、出现在什么结构里。顺着这条思路走下去,你很容易得到知识图谱、关系网络这类表示方式:词是节点,关系是边,意义存在于网络结构里。

另一种思路更接近心理学。它认为,一个词的意义不是一张关系表,而是一组语义特征。意义相近的词,在特征空间里也更接近。比如“星期二”和“星期三”会很近,而“星期二”和“但是”就会离得很远。

前一种强调关系,后一种强调特征。看起来像是两套互相竞争的理论。

辛顿在这里做了一件很漂亮的事:他没有站队,而是试图把这两种思路揉到一起。

从一个很小的语言模型,到今天的大语言模型

辛顿回顾说,他在 1985 年做过一个非常小的语言模型。规模很小,只有几千个权重,但核心想法已经很像今天的大模型了。

它的思路是这样的:给每个词分配一组语义特征,然后让前面词的特征发生相互作用,去预测下一个词的特征,整个系统通过反向传播来训练。

这件事看上去简单,实际上很重要。因为它带来了一个观念上的转折:

系统不需要把知识存成一条条句子,也不需要把意义写成一组组逻辑命题。它只需要学会特征之间是怎样相互作用的,就可以在需要时一步一步生成语言。

这和传统符号主义想象中的脑中有一套清清楚楚的命题库非常不一样。知识不再像档案馆里的文件,而更像分散在神经网络里的力量分布,平时看不见,调动起来却能组织出完整的语言和判断。

后来这条线一步一步走下来:Yoshua Bengio 把类似方法推进到真实自然语言建模;再后来,研究者开始普遍接受用嵌入(embedding)来表示词义;再后来,转换器架构(Transformer)出现,大语言模型终于进入大众视野。

从这个角度看,今天的大模型并不是横空出世的新物种,它更像是那条“分布式表示 + 学习词义 + 上下文建模”路线长大后的样子。

辛顿对“理解”的解释,最精彩的地方在这里

整场演讲里,我最喜欢的,是辛顿对理解给出的那个形象解释。

他认为,我们之所以一直在模型到底懂不懂这件事上打转,很大程度上是因为大家脑中默认了一幅错误的图景。很多人想象语言理解时,总下意识以为脑中有一套现成的命题、规则和定义,遇到一句话,就像查表一样把意义提取出来。

辛顿不这么看。

他把词想象成一种高维结构。每个词都不是死的,都有自己的可变形空间。进入不同上下文后,它会调整自身的形状,再和其他词建立连接。理解,不是把一个静态定义从脑中拎出来,而是让这些词在当前语境里逐渐对上关系,最后形成一个内部结构。

说得再直接一点,理解一段话,未必是在寻找这个词原本是什么意思,而更像是在不断判断:

这个词在当前语境里,到底长成了什么样子。

为了更容易想象这个过程,可以换一个比喻。

想象一个三维物体,比如一只杯子。你把它放在灯下,投影到不同墙面上,看到的形状会不一样。正面投影,可能看到一个带把手的轮廓;从上面投影,可能更像一个圆;换个角度,又可能只剩下一段不规则边缘。

杯子还是那个杯子,但它在不同角度下会呈现出不同的形状。

词也是这样。词本身不是一句固定定义,而更像一个多维对象。上下文就像投影角度。你从不同语境去看它,它显露出来的那一面也会不同。同样是“花”,放到“窗台上有一盆花”里,投影出来的是植物的意义;放到“这个月又花了不少钱”里,投影出来的是支出的意义。

辛顿想表达的,正是这种动态成形的感觉。

在现代大语言模型里,这个过程通过多层网络和注意力机制(attention)来完成。一个词最初进入模型时,含义可能还是模糊的,带着几种潜在可能;但随着它和上下文里的其他词不断发生相互作用,这种模糊会被一步一步压缩、塑形,最后收敛成当前语境下最合适的那个意思。

从这个角度看,理解不是提取,而是形成

这也解释了为什么“只是自动补全”这个说法不够准确

很多人批评大模型时,最喜欢说一句话:它不就是自动补全吗?

这句话听着合理,但问题在于,它把预测下一个词误解成了查词频表补字

早年的自动补全,确实更像查表。系统会记录哪些词组经常一起出现,然后按统计频率往后猜。但辛顿想强调的是,今天的大语言模型并不是这么工作的。它们并不靠保存大量现成文本片段,也不是在简单拼贴,而是在内部形成了复杂的分布式表示,依靠这些表示和上下文互动去生成下一个词。

说得直白一点,预测下一个词只是训练任务的表面形式,不等于系统内部只有肤浅的词频拼接。

就像人类说话时,也是一个词接一个词往外说,但你不能因此得出结论:人类语言不过是一种生物版自动补全。

那“幻觉”呢,难道不是问题吗

另一个常见批评是:大模型会出现幻觉(hallucination),这不就说明它并不理解吗?

辛顿对这个问题的处理非常有意思。他认为,与其叫幻觉,不如更接近心理学里的虚构性编造(confabulation)。这个词的重点不在看见了不存在的东西,而在于系统会根据已有结构,生成一个看上去合理、但细节并不完全准确的版本。

而这恰恰是人类很熟悉的现象。

我们平时总喜欢把记忆想象成文件存档,好像某件事发生后,它就被完整地放进脑子里,需要时再原样取出。可真实的人类记忆并不是这样。很多时候,我们是在回忆的瞬间重新组织材料、填补空白、补上细节。结果就是,主线未必错,细节却可能错得很自信。

辛顿用这个点来说明:会出错,并不能自动推出完全不理解。更准确地说,会在已有内部结构上生成一个合理版本,本身就是分布式系统的一种特征。当然,这不代表模型出错没关系,也不代表它已经足够可靠。只是说,不能因为它会编,就断言它连理解的门都没摸到。

人类怎么传知识,机器又怎么传知识

演讲最后,辛顿把问题推到了一个更大的层面。

如果理解是一种内部结构,那么人类之间是怎样共享这种结构的?答案其实有点朴素:靠语言。也就是说,我没法把脑中的整个结构原封不动复制给你,我只能说出一串词,给你一些线索。然后你再根据这些线索,在自己脑中重建出一个大致相似的结构。

不过,人类的学习过程并不只是别人说一句,我记一句这么简单。它更像是一个不断循环流动的链条:经历,沉淀成经验;经验,被提炼成知识;而知识又反过来影响我们下一次如何经历世界。

小孩子第一次摸到热水壶,被烫了一下,这是经历。第二次再看到冒热气的壶,他会下意识犹豫,这已经不是单纯的经历,而是经验在起作用。等他再长大一点,他也许会把这类经验概括成更抽象的知识,比如“高温物体可能造成伤害”、“某些表象意味着危险”、“判断不能只靠好奇心”。而这些知识一旦形成,又会回头组织他之后的观察、判断和行动方式。

所以,人类的知识并不是凭空落下来的。它总是在接触世界—形成经验—抽象出知识—再回到世界这个回路里一点点长出来。语言当然是其中的重要媒介,但语言只是桥,不是全部。真正让知识成立的,是人在具体生活中不断遭遇、比较、修正、归纳。

也正因为如此,人类共享知识时,其实效率并不高。因为我们没法把自己脑中的整个结构直接复制给别人,只能给出一个压缩过的提示版本。你说一句话,我听一句话,中间还夹着各自不同的经历、经验和理解背景。很多时候,同一句话落在不同人身上,长出来的结构并不完全一样。

数字智能体不一样。

如果多个模型副本拥有相同的结构、相同的参数、相同的计算方式,那么一个副本学到的权重变化,理论上可以直接同步给另一个副本。那就不是我给你讲一句话,而是我把整个内部更新量直接给你

这两者的差距非常大。

人类传知识,更像口头讲解,再靠各自的经历慢慢消化。

数字模型传知识,更像直接复制内部状态。

辛顿认为,这恰恰是数字智能体最值得警惕、也最容易被低估的地方。它们的可怕,不只是因为它们在某些任务上像人,而是因为它们在知识共享上可能远远强于人类。

我看完这场演讲后的一个感受

如果只用一句话概括辛顿这场演讲,我会说:

他不是在替大模型抬轿,而是在要求我们放弃一个过于陈旧的理解模型。

过去很多关于 AI 的争论,常常滑向两个极端。一边把模型说得无所不能,另一边又把它贬成概率拼贴器。辛顿的观点真正有价值的地方,是他试图把讨论从这种标签化判断里拉出来。

而且这里面还有一层很深的人类思维惯性。

我们天生就习惯用类比来理解世界。遇到陌生事物时,我们总想把它套进某个熟悉框架里:这个东西像不像人?像不像老师?像不像搜索引擎?像不像计算器?这种思维方式非常自然,也非常高效。很多时候,我们正是靠类比,才能迅速抓住新事物的大致轮廓。侯世达在《表象与本质:类比、思考之源和思维之火》里谈的,某种程度上就是这个问题:类比不是思维的边角料,反而是人类理解的重要来源之一。

也正因为如此,当我们面对大模型时,最容易做的一件事,就是不断追问:它到底像不像我们?它的理解,像不像人的理解?它推理时,像不像我们脑中那种有意识、能说得清步骤的推理?

这当然是一个很自然的发问方式,但辛顿这场演讲真正提醒我们的,恰恰是:大模型不是,也不必是我们所以为的“我们理解的那个样子”。

它不一定要像人类课堂上举手回答问题那样理解,也不一定要像我们内心独白那样推理,更不一定要把知识存成一条条自己能解释清楚的命题,才算理解。我们之所以总觉得真正的理解应该长这样,很多时候只是因为我们只能用自己熟悉的思维手感去衡量别的系统。

可问题就在这里:类比帮助我们靠近新事物,也可能限制我们看见新事物。我们一旦太执着于它像不像我,就很容易忽略它其实正在以另一种方式工作

所以我觉得,辛顿的价值不只是在为大模型辩护,更是在提醒我们调整看问题的角度。不要把与人类相同误当成唯一可能,也不要把与人类不同误当成因此不成立。理解本身,也许从来就不只有一种形状。

这恰恰比它就是个统计机器要严肃得多。

结尾

顺着辛顿的思路往下想,最后会得到一个有点安静、也有点吓人的结论。

如果理解不是一套明确命题的检索,而是一个高维内部结构在上下文中逐步形成;如果人类自己也不是靠完美规则和精确存档来运作,而是在经历—经验—知识的循环里不断塑造自己;如果数字智能体在这种结构形成上与我们相似,却在复制和共享上比我们高效得多——那么,真正需要重新思考的,就不只是模型会不会说话,而是:

一个能够形成理解、还能高速共享理解的系统,究竟意味着什么。

我想,这大概就是辛顿这场演讲最值得反复回味的地方。

它没有把理解说得神神秘秘,也没有把理解压扁成一句只是下一个词预测。它做的是一件更难的事:把理解重新放回学习、结构和涌现之中。

而一旦你接受了这个视角,再回头看今天的大语言模型,很多原本看似简单的判断,可能就没那么简单了。