2025年7月26日,世界人工智能之父——杰弗里·辛顿在“2025人工智能大会”上发表主旨演讲,他用通俗的语言讲清楚了人工智能发展的路径。那么透过辛顿的视角我们应如何理解现在中国汽车智能驾驶的路线之争呢?或者说,未来中国汽车智能驾驶的技术路线哪条是正确的呢?
做个通俗的比喻吧,如果你看过小朋友学骑自行车,就会明白人类学习的规律——没人会先背诵"平衡公式",而是摔几次车后,身体自然形成"车把歪了就往反方向拧"的直觉。这恰是辛顿先生的核心观点——人类大脑本质是个"会学习的大模型",靠不断试错形成动态反应模式。
在中国智能驾驶赛道上,正进行着两种路线的较量,恰似两种学骑车的方式,一种像人类靠直觉摸索,另一种像程序员编写操作手册。用辛顿的理论来看,这两条路的未来走向,藏着智能革命的关键密码。
像学骑车般的"端到端"路线
特斯拉、Momenta等企业走的这条路,就像教AI直接模仿老司机开车。你给它看1000段"看到红灯刹车"的视频,它不会死记"红灯=停车"的规则,而是自己琢磨,红灯亮时,周围车辆的速度变化、行人反应和刹车距离的关系,慢慢形成类似人类驾驶的直觉。
辛顿在演讲中举过"乐高积木"的例子,即,人类理解语言时,每个词像可变形的积木,会根据上下文调整形状再拼接。在这种技术路线中,摄像头看到的路况、雷达测的距离,就像这些积木,AI会实时调整它们的组合方式——突然窜出的小猫会让"刹车"这块积木变得特别重要,而在空旷的高速公路上"加速"这块积木会占主导地位。
这种技术路线的优势很明显,遇到施工绕行、暴雨天视线差等突发情况时,它能像老司机那样灵活应对。但问题也和人类学习一样,需要海量"练手"数据(就像新手要开够几千公里才能熟练),而且学来的经验很难直接复制给另一台机器——这也是辛顿指出的"人类知识难以传播"的局限。目前,中国公司正通过每辆上路车辆一起收集数据,以解决这个问题,就像一群人一起练车,互相分享经验。
像查手册般的"规则驱动"路线
百度Apollo、华为ADS走的这条路,更像给AI装了本超级详细的《驾驶手册》。工程师会把"看到红灯要停3秒"、"转弯要让直行"等规则写成代码,再配上高精地图,标注每条车道线的位置。就像有人骑车时,车把上始终架着导航仪,严格按指令操作。
这正符合辛顿说的"数字智能优势",规则写好后,能瞬间复制给所有车辆,就像一本手册可以印成千上万本。在高速路、封闭园区等简单场景,它表现得又快又稳。例如,去年深圳开放的L3级自动驾驶,主要就是这种路线在跑。
但麻烦出在复杂路况,遇到行人突然横穿马路,同时旁边又有辆车超车,这种情况“手册”里没写过的路况组合,这就会让AI系统犯难了。辛顿警告过这种"规则爆炸"的风险,就像你永远无法穷尽所有骑车可能遇到的情况,工程师也写不完所有交通场景的规则。为此,华为给车装了激光雷达当"额外眼睛",百度则靠不断更新地图来打补丁,但这都让系统越来越复杂。
从辛顿理论看未来
辛顿先生的观点其实已经给出了清晰判断,就像人类既能靠直觉骑车,也能背交通规则一样,未来很可能是"混合进化"。
端到端路线需要突破"经验共享"难题,辛顿提到的"知识蒸馏"技术,简单说就是让一个AI把学到的本事"教"给另一个,就像老司机带徒弟。目前,中国团队已经做到让一辆车的紧急刹车经验,通过数据处理后,让所有同型号车都学会。
规则驱动路线则要解决"灵活性"问题。辛顿举过一个有趣的例子,人类会虚构记忆(比如记错昨天吃了什么),AI也会"幻觉驾驶"(例如,把阴影当成障碍物)。现在华为在系统里加了"质疑机制",让AI像新手问教练那样,遇到不确定的情况会减速确认,这正是借鉴了人类学习的容错特性。
据了解,在上海的智能驾驶测试区,已经能看到这种融合的苗头,在高速路上用规则驱动保证效率,进入城区则自动切换到端到端模式应对复杂路况。辛顿说过,真正的智能不是非此即彼,而是像大脑那样,既会靠直觉反应,也能调用理性分析。
这场发生在中国的技术路线之争,本质上是在回答辛顿的终极之问:当机器开始像人类一样学习,我们该如何让它们跑得更安全、更聪明?或许答案就藏在每个普通人的驾驶经验里——那些靠直觉躲过的危险,那些被红绿灯规范的秩序,终将共同塑造智能驾驶的未来。