目 录CONTENT

文章目录

学习AI:我们离捕捉通用人工智能的幽灵还有多远?

Administrator
2025-10-21 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

 

字数 3716,阅读大约需 19 分钟

学习AI:我们离捕捉通用人工智能的幽灵还有多远?(Andrej Karpathy的十年展望与教育革命)

原文和播客

原文

youtube.com/watch?v=lXUZvyajciY&themeRefresh=1[1]

中文

Andrej Karpathy最新2h30min访谈:信息密度极高!关于智能体,大模型缺陷,强化学习,AGI等等的深度思考 | 一只小茄墩[2]

解读

#263. AI时代的智能体:Andrej Karpathy的十年展望与教育革命 - 跨国串门儿计划 | 小宇宙 - 听播客,上小宇宙[3]

有趣

  1. 1. 我们现在处在人工智能大模型的早期阶段,离真正的通用人工智能还有距离

  2. 2. 知识可能反而拖累了神经网络,因为它让模型有时过于依赖已有的知识,接下来的研究范式之一,就是需要想办法移除知识,并保留称之为认知核心的东西

  3. 3. 上下文学习本质上是在一个token窗口内进行模式补全

  4. 4. 神经网络在训练(预训练)期间学到的任何东西,都只是一种对训练数据的模糊记忆

  5. 5. 别做那些务虚的事。去构建代码,整理它,让它真正工作起来。这是唯一的出路。否则,你就永远缺少关键的知识

Andrej Karpathy 访谈核心观点总结

一、智能体发展的现实时间线

  1. 1. 为什么智能体需要十年而非一年

    • • 当前智能体(Claude、Codex)存在根本缺陷:不够智能、不够多模态、缺乏持续学习能力、存在大量认知缺陷

    • • 判断标准:什么时候你会让智能体替代人类员工做工作?目前显然还做不到

    • • 要解决所有这些问题,大约需要十年时间

  2. 2. 历史教训:过早追求智能体必然失败

    • • 2013年Atari深度强化学习和OpenAI的Universe项目(让AI用键盘鼠标操作网页)都失败了

    • • 失败原因:缺少神经网络的表征能力,奖励信号太稀疏,模型学不到任何东西

    • • 正确路径:必须先通过海量预训练获得表征能力(LLM阶段),然后才能构建真正的智能体

二、预训练的本质与局限

  1. 3. 预训练是"蹩脚的进化"

    • • 动物通过进化产生,自带大量内置硬件(如斑马出生几分钟就能跑)

    • • AI通过模仿互联网数据训练,是空灵的数字实体,这是完全不同的优化过程

    • 我们不是在构建动物,而是在构建"幽灵"(Ghosts)——完全数字化的、模仿人类的智能实体

  2. 4. 预训练同时做两件不相关的事

    • • 第一:获取知识(记住互联网上的所有信息)

    • • 第二:启动算法(通过观察模式变得智能,发展出上下文学习等能力)

    • • 问题:知识可能反而拖累神经网络,让它过于依赖已有数据,难以脱离训练数据的流形

  3. 5. 认知核心(Cognitive Core)概念

    • 需要移除知识,只保留认知核心:算法、智能、解决问题的策略

    • • 认知核心应该是脱离具体知识的智能实体,像人类一样"记忆力差但善于泛化"

    • • 预计认知核心只需约10亿参数(相比当前万亿参数模型)

    • • 这个核心会查找信息而非记忆信息,像一个真正的思考者

三、上下文学习的深刻理解

  1. 6. 上下文学习可能是隐藏的梯度下降

    • • 上下文学习很可能在Transformer的层内部运行着微型梯度下降循环

    • • 研究发现:上下文学习做线性回归时,内部机制与梯度下降惊人相似

    • • 甚至可以通过硬编码Transformer权重,用注意力机制直接实现梯度下降

  2. 7. 上下文学习 vs 预训练的信息存储差异

    • • 预训练:Llama 3在15万亿token上训练,每个token只存储约0.07比特(是对互联网的模糊记忆)

    • • 上下文学习:每个token在KV缓存中存储约320KB(是工作记忆)

    • • 两者相差3500万倍,这解释了为什么上下文学习感觉像"真正的智能"

    • • 类比:模型权重是你一年前读过某本书的模糊记忆;上下文是你当前的工作记忆

四、强化学习的根本性缺陷

  1. 8. 强化学习很糟糕,但它是目前最好的选择

    • • 核心问题:假设你最终得到正确答案,就把推导过程中的每个步骤都标记为"多做这个"

    • 实际上推导过程充满弯路和错误,但RL会把所有错误步骤都强化

    • • 比喻:"通过吸管吸取监督信号"——花一分钟推导几百种方案,最后只得到"对"或"错"这1比特信息,然后用这1比特广播到整个轨迹

  2. 9. 人类从不这样学习

    • • 人类不会并行尝试几百次然后简单地强化成功路径

    • 人类有复杂的复盘过程:"我做对的是这些,做错的是那些,我本应该..."

    • • 当前LLM完全缺少这种反思机制

  3. 10. 基于过程的监督(PBS)为何失败

    • 理论上应该在每一步给奖励,但部分功劳分配太棘手

    • • 用LLM评判员来打分,必然会被游戏化:RL训练的学生模型会找到对抗性样本(胡说八道但评判员认为完美)

    • • 对抗性样本是无穷无尽的,因为LLM有万亿参数,打补丁无法根本解决

    • • 需要新思路:让模型学会复盘解决方案,通过元学习方式实现

五、模型坍缩与合成数据问题

  1. 11. LLM输出分布是坍缩的

    • • 任何单个样本看起来都不错,但分布很糟糕

    • • 例:让ChatGPT讲笑话,它只会那3个笑话;让它反思同一章内容10次,10次都基本一样

    • • 无法从同样的提示中获得足够扩展和多样的输出

  2. 12. 模型坍缩是合成数据生成的致命障碍

    • 如果在坍缩的输出(自己的生成)上持续训练,模型会彻底崩溃

    • • 这是为什么让模型反思、生成合成数据进行自我训练如此困难

    • • 类比:人类也会随时间坍缩——小孩还没过拟合,说话震惊;成年人已经坍缩,反复说同样的话

  3. 13. 如何防止坍缩

    • • 需要在生活中寻找熵:与他人交谈是重要的熵来源

    • • 可能需要对熵进行正则化,但业界更关注有用性而非多样性

    • • 为了眼前的有用性而牺牲熵,实际上是搬起石头砸自己的脚(无法做好合成数据生成)

六、AI编码能力的真实水平

  1. 14. AI不擅长写从未被写过的代码

    • • 自动补全(Tab键)非常有用:导航到位置,敲出前三个字母,立刻给出正确代码

    • • 但智能体模式(用英语下指令)在非模板化代码上很糟糕

    • • 核心问题:AI总是误解非标准实现,过于依赖互联网上的典型做法

  2. 15. NanoChat项目的惨痛经验

    • • NanoChat是独特的代码库,不是样板代码,几乎全是智力密集型代码

    • • AI的表现:坚持要用DDP容器(标准做法),无法理解自定义实现;过于防御性,加大量try-catch;用过时API

    • • 净用处基本为零,清理AI代码不如自己写

    • • 只在两个场景有用:①生成报告(样板代码)②用Rust重写分词器(不熟悉的语言 + 有Python参照 + 有测试保证)

  3. 16. 为什么编码AI进展最快但仍然不够

    • • 优势:编码一直围绕文本,与LLM完美契合;有海量训练数据;有预构建的基础设施(IDE、diff工具等)

    • • 局限:AI极大地降低了接触不熟悉语言的门槛,但无法创造性地写新代码

    • • 这对预测AI爆炸(如2027年)高度相关:AI恰恰不擅长写以前从未被写过的代码,而这正是我们最希望它实现的

七、当前模型的关键缺失

  1. 17. 缺少类似睡眠的蒸馏机制

    • 人类醒着时构建上下文窗口,睡觉时有蒸馏过程将经验固化到大脑权重(长期记忆)

    • • LLM每次启动都像从头开始,完全没有等同机制

    • • 持续学习更接近这个蒸馏概念:离线时痴迷地分析白天发生的事,深入思考,生成合成数据,把精华填充回权重(如通过LoRA更新稀疏权重)

  2. 18. 缺少精细的稀疏注意力机制

    • • 人类显然有某种非常精细的稀疏注意力方案

    • • AI领域开始看到早期迹象(如DeepSeek v3.2)

    • • 我们正在通过完全不同的过程,重新实现进化发明的许多认知技巧,最终可能在认知架构上趋同

  3. 19. 缺少复制大脑的许多部分

    • • Transformer像皮层(极强可塑性)

    • • 思维链推理像前额叶皮层

    • • 但海马体、杏仁核(情绪和本能)等神经核没有对应物

    • • 我们离集齐所有大脑部件还差得远

八、多智能体与AI文化

  1. 20. 两个强大但未实现的思想

    • • 第一个:AI文化——LLM为其他LLM创建不断增长的知识库(如一个巨大的草稿板,LLM为其他LLM写书)

    • • 第二个:自我对弈——AlphaGo通过和自己下棋学会下围棋,进化也是竞争驱动智能,但LLM中没有等价物

    • • 如:为什么一个LLM不能创造难题让另一个LLM学习?出题LLM总是试图提供越来越难的问题

  2. 21. 为什么还没实现

    • 根本原因:当前模型仍然"像小学生"

    • • 虽然能通过博士水平测验,但认知上仍然感觉像幼儿园或小学的天才儿童

    • • 它们有完美记忆,能令人信服地填槽,但并不真正知道自己在做什么

    • • 在所有那些构成真正智能的认知复选框上,它们并没有打勾

九、AI进步的本质

  1. 22. 算法、数据、计算、系统的重要性惊人地平等

    • • 回溯到1989年Yann LeCun的卷积网络,仅用现代算法知识只能把错误率减半

    • • 要获得进一步提升,必须同时增加数据(10倍训练集)和计算(更长训练时间、dropout等)

    • • 33年来没有哪个因素能遥遥领先,它们的重要性惊人地平等

    • • 所有东西都需要全面改进——架构、优化、损失函数、数据集、硬件、内核

  2. 23. 未来十年的预期

    • • 数据集会大大改善**(当前平均数据极其糟糕,充满事实错误和垃圾)**

    • • 硬件会改善(英伟达张量核心等)

    • • 算法会改善(架构、优化器)

    • • 期望没有任何一个东西会主导,而是所有东西都同时提升20%

    • • 核心(如用梯度下降训练神经网络)很可能仍然存在

十、对超级智能的理性预期

  1. 24. AI是计算的延伸,而非革命性断裂

    • • 我们一直在经历持续几十年的智能爆炸(编译器、搜索引擎本质上也是AI)

    • • 递归自我改进从一开始就存在:LLM让工程师更高效去构建下一代LLM
      -** 把AI看作计算的延伸,是一个连续体而非离散跳跃**

  2. 25. 不期望GDP增长率的离散跳跃

    • • 曾试图在GDP曲线中寻找AI的踪迹,但找不到

    • • 即使是iPhone这种地震级变化,也没在GDP曲线中留下痕迹

    • • 一切变革都分布得如此广泛、扩散得如此缓慢,最终都被平均到那条指数曲线中

    • • AI会汇入同一条指数曲线,增长率可能不会从2%跳到20%

  3. 26. 最担心的未来场景

    • • 不是单一实体接管,而是多个相互竞争的实体

    • • 它们逐渐变得越来越自主,其中一些失控,另一些与之对抗

    • • 逐渐失去对正在发生事情的控制和理解

    • • 《瓦力》式未来:人性被边缘化、去赋权化

十一、自动驾驶对AI部署的重要启示

  1. 27. "九的行军"定律

    • • 从90%到99%到99.9%,每增加一个九需要恒定工作量

    • • 1986年CMU就有自动驾驶演示,2014年Waymo给了完美驾驶体验,但现在仍未完成

    • • 在特斯拉的五年,大概完成了两到三个九,还有更多九要完成

  2. 28. 演示与产品的巨大鸿沟

    • • 演示非常容易,产品非常难

    • • 应该对任何演示极度不以为然,尤其是精心制作的演示

    • • 即使能亲自上手互动,你也还没完——需要真正的产品与现实接触

  3. 29. 对AI编码和知识工作自动化的启示

    • • 软件失败代价和自动驾驶一样高(安全漏洞可能泄露数亿人信息)

    • • 通用软件工程比自动驾驶有更多表面积(自动驾驶只是数千件事情中的一个垂直领域)

    • • 所有坑都会在AI部署中重演

  4. 30. 自动驾驶仍远未完成

    • • Waymo的部署仍然非常有限,主要因为不经济

    • • 车里没人驾驶有点欺骗性:实际上有复杂的远程操作中心,human-in-the-loop

    • • 我们实际上并没有移除人,只是把他们移到了你看不见的地方

十二、行业态度与总体基调

  1. 31. 乐观但反对过度炒作

    • • 本人非常乐观,相信AI会成功,问题是可以解决的

    • • 听起来悲观,只是因为推特时间线充斥着毫无意义的东西

    • • 很多噪音只是为了融资和博取注意力,这是激励结构的问题

  2. 32. 呼吁正确校准预期

    • • 15年AI生涯中多次从有名望的人那里听到错误预测

    • • 希望我们能被正确校准,立足于技术的现实——知道它是什么,以及它不是什么

    • • 当涉及地缘影响时,不希望人们在这个领域犯错误

引用链接

[1] youtube.com/watch?v=lXUZvyajciY&themeRefresh=1: https://www.youtube.com/watch?v=lXUZvyajciY&themeRefresh=1
[2] Andrej Karpathy最新2h30min访谈:信息密度极高!关于智能体,大模型缺陷,强化学习,AGI等等的深度思考 | 一只小茄墩: https://www.xiaoqiedun.com/posts/2025-10-19-karpathy/
[3] #263. AI时代的智能体:Andrej Karpathy的十年展望与教育革命 - 跨国串门儿计划 | 小宇宙 - 听播客,上小宇宙: https://www.xiaoyuzhoufm.com/episode/68f31696456ffec65e57099b

 

0
  1. 支付宝打赏

    qrcode alipay
  2. 微信打赏

    qrcode weixin

评论区