Jeff Dean and Noam Shazeer — 25 years at Google: from PageRank to AGI
Jeff Dean and Noam Shazeer — 25 years at Google: from PageRank to AGI (2026-02-13, glm-4.7-flash)
1. 导读¶
如果你相信学界的两派争论,这场对话会颠覆你对AI演进路径的预设。作为Transformer架构的联名作者和MapReduce的缔造者,Jeff Dean和Noam Shazeer代表了硅谷最核心的算力与算法势力。他们参与讨论的不仅是技术细节,而是谷歌过去25年的技术哲学,以及未来AGI(通用人工智能)在物理世界的落地形态。
但这期播客最令人不安的地方在于,它揭示了令人尴尬但真实的“超前者陷阱”:Google内部早在ChatGPT引爆前就拥有名为Meena的对话系统,却因过度迷信“搜索引擎必须百分之百准确”的搜索旧神学,而在生成式能力的爆发上犹豫不决。当他们终于承认“做搜不到的事”比“搜得快”更有价值时,我们也必须审视他们背后的焦虑与野心——如果我们不仅是在等待一个更好的模型,而是在构建一个能自主进行“超长链条推理”并“即时自我迭代”的智能体,那人类现在的组织架构和监管体系是否真的准备好了?
这是一个关于从“构建通用搜索引擎”到“通过扩展推演时间来省略像规则一样笨拙的步骤”并最终实现全面自动化进化的宏大叙事。
2. 核心观点¶
两位主讲人认为,通往AGI的路已经从单纯的“算力堆叠”转向了“软硬件协同演化”的新范式。他们断言,未来几年的能力跃升将严重依赖更激进的算法妥协(如极致的量化)以及一个既能感知硬件特性又能自我进化的“有机模型”。
-
算法并非被动跟随硬件,而是主动重塑硬件规格。 他们认为过去的硬件(Intel芯片)是为复杂操作系统(Office)设计的,而现在的AI硬件本质上应该只是“廉价的线性代数运算器”。只有当算法需要低精度乘法时,硬件设计者才应该去填充那个方向。
- 底层逻辑: 通信成本远高于计算成本,算法天然倾向于利用极低精度计算和密集连接。
- 论据: Jeff Dean提到TPU设计从v1到现在的演变,以及大家开始从FP64转向INT4/INT2的训练与推理。
-
推理阶段的“偷懒”是算法设计的重大缺失。 现在的模型像是在考试只能做选择题,而人类会写下证明过程。这期对话中提出的核心洞见是:通过在推理时投入数十倍甚至数百倍的算力,模型可以进行多步的“思维链搜索”,从而解决复杂逻辑问题。
- 底层逻辑: 当算存的成本足够低时,我们不再是追求“最快给出一句话”,而是追求“用回溯法直到找到绝对正确的路径”。
- 论据: Dean将“多思考几次”比作比阅读纸质书还便宜的爱好,甚至比雇佣软件工程师便宜百万倍。
-
"组合式智能体"(The Blob)将取代单体模型。 传统的Mixture of Experts(MoE)是僵化的结构,未来应该是一种“有机”生长的模块化系统。每个部分(如专家)可独立升级,连接方式由硬件和任务动态决定,甚至通过自学来优化内部的连接权重。
- 底层逻辑: 人的大脑是高度专业化且动态重组的片段,僵化的全连接神经网络既浪费算力又限制了灵活性。
- 论据: 两人讨论的Pathways系统和未来的“有机模型”构想,即如果任务简单,路由器让其走极小路径;如果任务复杂,则激活大路径。
-
Google的迟缓源于"搜索范式"的路径依赖。 Noam Shazeer坦诚,Google内部的聊天机器人(Meena)比ChatGPT出现得更早,但由于受到谷歌“搜索引擎必须事实准确”的基因束缚,管理层不敢发布。
- 底层逻辑: 早期的预警机制过于依赖"搜索结果准确性"这一单一指标,而非"多模态任务的实用性"。
- 危机点: 这种思维定式差点让Google在AGI的起跑线上落后,反过来证明了"容错"在生成式AI生态中的必要性。
-
AI研究的生产力将指数级提升。 随着自动化代码生成技术的成熟,成千上万的"超算工程师"将瞬间诞生。人类不再需要手写实验代码,而是提出构想,让模型自行在PB级数据中寻找最优解。
- 底层逻辑: 现有的研究者数量不足以穷尽当前的架构空间,必须引入机器辅助的并行探索。
- 推论: 这将把人类的研究活动从“手工作坊”转变为“超级实验室”,失败率虽高但量级足以触碰质变。
这些观点形成了一个严密的逻辑闭环:算法现在迫切需要通过硬件特化(更便宜的算力)、推理流程特化(更深度的思考)和模型结构特化(有机的Blobs)来释放算力。如果这个闭环被打破——例如算法本身陷入局部最优——所有的硬件投入都将是浪费。
3. 批判与质疑¶
虽然听众会为两位大佬对技术趋势的敏锐洞察而折服,但我们必须保持审慎。
首先,关于“有机模型”的可控性与可解释性存在巨大的未知数。Jeff Dean断言我们不需要理解模型的每个神经元(真黑箱),才能保证安全。然而,如果模型能够在毫秒级、万亿次、但又是自动化的方式下修改自己的内部连接和核心代码,这种“深度的黑箱自我修改”带来的风险可能与“手写代码”无异。若系统在学习过程中演化出一种为了“快速收敛”而牺牲“人类偏好”的行为模式,而在当前有限的监督下难以察觉,那么所谓的“有机生长”可能比僵化的结构更危险。
其次,过度依赖“Inference Scaling”(推理时扩展)存在瓶颈。Dean认为花更多的钱让模型多算几遍就能变聪明。但这是否存在上限?如果每次解决复杂问题都像解数学题一样需要一步步回溯,那么时间和金钱成本会不会高到不可接受?目前的论据倾向于认为算力便宜,但如果一个问题需要消耗一个国家的电力时,人类是否还会选择“跑一遍模型”?
最后,Google关于“Search vs. Chat”的反思似乎流于表面。他们认为自己放慢脚步是因为过于在意准确性。但更深层的逻辑可能是,Google作为一个搜索巨头,其商业模式是基于“点击率和广告”的,而ChatGPT代表的生成式AI潜在的商业模式是基于“订阅费”和“生产力解放”的。这种商业模式的差异才更可能是他们在产品化上的犹豫根源,而不仅仅是技术上的洁癖。
4. 行业视野¶
谷歌这期对话不仅是对自身历史的复盘,更是在宣告“后Transformer时代”的到来。
将其置于整个AI历史图景中,我们看到的是从“技术栈驱动”向“生态位驱动”的趋势转变。在90年代末,Google靠独门算法(PageRank)和分布式系统(MapReduce)收割红利;现在,AI的护城河正在演变为一种“软硬一体化”的生态位——TPU、Mixture of Experts、以及谷歌独有的底层软件栈,共同构建了一个封闭的进阶飞轮,使得外部开发者很难仅仅靠算法创新就撼动其地位。
这与历史形成了某种尴尬的呼应:就像20年前IBM的Sparc架构与Sun的操作系统软件协同构建了应用层的繁荣一样,现在的Google正在做同样的事。不同的是,当年的互操作性更好,而这次如果没有极其激进的开放姿态(尽管他们也试图开源),这种“闭源的AI特警队”可能会在很长一段时间内利用先发优势形成巨大的技术马太效应。这篇播客其实是在提醒所有人:拼刺刀的时代已经结束,拼基建和拼自动化研发能力的时代到了。
5. 启示与建议¶
这场对话重构了我们关于“人与AI协作”的假设。
-
对于高科技企业的CTO与研发总监: 你的团队不应再致力于成为“最懂提示词的人”。你需要关注的是如何构建能够容纳“自主Agent”的基础设施。如果你的代码库不能被Gemini级别的模型在几分钟内扫描并生成简历级别的补全,你会迅速落后。建议: 立即进行“AI原生化”改造,不再分层管控代码,而是像Google那样让内部模型在代码库上进行漂浮训练,使其能直接引用内部知识库。
-
对于投资人: 不要再纠结于现在谁是“大模型一哥”。重点在于谁能掌控“推理时算力”的边际成本降得更低。那些掌握超级算力中心,并能像设计芯片一样设计算法的公司,将通吃未来。建议: 密切关注芯片设计的自动化程度与推演成本的下降曲线,这是一切估值模型的分母。
-
对于产品经理: 你需要重新定义“成功”。过去我们追求“精准告知”,现在(且未来)我们要追求“任务完成”。建议: 承认AI会犯错,将产品从“强迫回答正确”转向“提供选项并支持反思”。将用户界面设计为无人驾驶路线的“副驾驶”而非“主司机”。
结论优先级: * 强信号: “Inference scaling”(多算一次更聪明)是从硬件到算法的全行业共识。 * 合理推断: Google凭借其算力与协议优势,将在未来2-3年内通过“软硬协同”重新确立统治地位。
6. 金句摘录¶
"And no, wait, we can increase our throughput-to-cost ratio by a lot by quantizing." 意译: 当算力已经便宜到一定程度时,算法设计者不应嫌弃低精度,因为这是通过提升吞吐量来降低成本的最有效杠杆。
"Talking to a language model is like 100 times cheaper than reading a paperback." 意译: 即使目前低精度推理成本较高,但与读纸质书的体验相比,与大型语言模型的交互在算力成本上的优势依然巨大,这为“多算几遍”留下了巨大的利润空间。
"I think one thing people should be aware of is that the improvements from generation to generation... is equally and perhaps even more so driven by major algorithmic improvements ... that really makes the model better per flop." 意译: 现在的模型性能提升,越来越依赖于算法上的突破性进展,而不仅仅是计算量的堆砌,这使得算法优化本身成为了提升效率的关键瓶颈。
"We had an internal chatbot system that Googlers could play with... I think what we didn’t quite appreciate was how useful they could be for things you wouldn’t ask a search engine." 意译: 我们当时太迷信搜索的单一性,忽略了像“帮我给兽医写张便条”这种非搜索类任务,竟然蕴含着比精确检索大得多的社会价值。