Agent 设计依然困难
Armin Ronacher 是著名的开源软件工程师,Flask Web 框架、Jinja2 模板引擎及 Click 命令行工具的创造者,其作品定义了现代 Python 开发的简洁范式,并对全球开源生态产生了深远影响。
Agent 设计的本质并非简单的循环,而是对模型差异、显式缓存控制与强化信息的极致平衡,在这个领域,过于通用的 SDK 往往是灵活性的枷锁。

Armin Ronacher 是著名的开源软件工程师,Flask Web 框架、Jinja2 模板引擎及 Click 命令行工具的创造者,其作品定义了现代 Python 开发的简洁范式,并对全球开源生态产生了深远影响。
Agent 设计的本质并非简单的循环,而是对模型差异、显式缓存控制与强化信息的极致平衡,在这个领域,过于通用的 SDK 往往是灵活性的枷锁。

真正的 Agent 必须具备高效的持续学习能力,即超越当前仅依赖稀疏奖励和上下文检索的“推理者”模式,转而高效地从丰富的**环境反馈(Observation)中学习世界模型(World Model)**并不断进化。
持续学习能力是“真正的 Agent”与“推理者(Reasoner)”的核心区别。它不仅仅是关于更大的模型,更是指 Agent 作为一个系统,能够在现实世界中长期交互、适应和进化的能力。
Andrej Karpathy 认为实现功能完善的 AI Agent (智能体) 还需十年的时间,他反对业界“2025 年就是 Agent 之年”的过度乐观,认为目前的 Agent 还像“聪明的实习生”,距离真正能独立完成复杂任务的 Agent 差距很大。
现状与问题: 目前的 Agent 缺乏有效的记忆机制。Karpathy 将 LLM 的权重比作“模糊的记忆”,而将 KV 缓存(上下文窗口)比作“工作记忆”。问题在于,模型缺乏一个类似人类的“记忆蒸馏”机制(如睡眠中巩固记忆),无法将工作记忆中的经验分析、反思,并整合回权重中。
十年方向: 未来十年需发展持续记忆与个体化权重系统,如外部记忆系统、稀疏注意力机制、LoRA 微调的个体模型,使 Agent 形成真正的长期认知与个性。
现状与问题: Agent 在操作计算机(如键盘、鼠标、网页)时表现笨拙,无法像人类一样灵活交互。
早期 OpenAI 的 Universe 项目尝试让智能体通过鼠标键盘操作网页,但失败了,因为强化学习在稀疏奖励环境下几乎无法学习。Karpathy 认为,当时的智能体“太早了”,缺乏强表征能力(representation power),无法理解屏幕内容或执行目标导向操作。
十年方向: 必须先建立强大的语言模型和世界表征,再叠加具身操作系统。未来的计算机 Agent 将基于 LLM 表征层,在此之上发展出行动接口与工具使用能力。
现状与问题: Karpathy 明确指出当前模型存在严重的“认知缺陷”(cognitive deficits)。
十年方向: 下一阶段需要发展“认知内核(cognitive core)”——一种去除多余知识、保留推理与策略机制的智能体核心。即“少记忆的更聪明大脑”,以实现真正的通用认知。
现状与问题: Karpathy 认为目前 LLM 的学习是静态的、离线的,无法像人一样在使用中不断学习。它们缺少一个将日常经验(上下文窗口)“蒸馏”回永久权重(类似睡眠)的过程。
人类的“清醒期—睡眠期”循环对应的是上下文积累与长期整合,而模型只有“清醒”没有“睡眠”。
十年方向: 持续学习需引入多层次更新机制:
Karpathy 预测这类机制将在未来十年逐步形成。
现状与问题: Karpathy 在构建代码项目时指出,当前编码 Agent “不理解你的代码库、不理解上下文、不理解你的风格”。
它们擅长样板代码(boilerplate),但在结构复杂、非模板化项目中容易出错、风格不一致、误用 API、代码臃肿。
十年方向: 代码 Agent 将经历从“自动补全”到“自主工程师”的演化,需引入项目级理解、代码图谱建模与可验证执行环境,并可能通过 RLHF 与工具链联动逐步逼近“可靠协作者”。
现状与问题: Karpathy 直言:“强化学习是糟糕的(RL is terrible),只是比之前的模仿学习略好”。
十年方向: 研究应转向过程监督(process-based supervision)与反思-评审式强化学习(reflect & review),让模型能在执行中自评与修正,而非盲目追求最终奖励。
现状与问题: 当前多模态系统能结合图像、文字,但仍停留在表层配对,缺乏统一的世界模型。Karpathy 将 LLM/VLM 视为“表征基础”,但指出多模态的真正挑战是如何让感知与推理共享一个认知核心。
十年方向: 未来需发展跨模态表征融合与共感知机制,让视觉、语言、行动共享语义空间,从而支持真实的具身智能与任务迁移。
Karpathy 将 AI Agent 的发展比作他在特斯拉领导自动驾驶的五年经历。 他深刻理解了“演示(demo)和产品(product)之间的巨大鸿沟”。例如,Waymo 在十年前(2014 年左右)就能提供完美的演示驾驶,但如今自动驾驶也远未完成,存在经济性、隐藏的“远程操作中心”(即人工介入)等问题。
真正困难的是“九的行军”(march of nines)。 从 90% 的成功率(演示)到 99%、99.9%、99.99%...(产品),每增加一个“九”都需要巨大的努力,因为现实世界的情况无比复杂,必须处理各种极端案例,增加系统的安全性、可靠性。
Karpathy 认为,对安全性的高要求(例如自动驾驶中的伤害风险)同样适用于“生产级软件工程”,因为代码中的一个错误(如安全漏洞)可能会导致“无限可怕”的后果。
因此,Agent 的发展不会一蹴而就,它将是一个缓慢的、迭代的 “九的行军” 过程,需要解决上述所有根本问题。
这篇论文通过一系列严格的实验,证明了一个令人担忧的结论:如果我们持续给大语言模型(LLM)投喂网络上的“垃圾文本”,它们真的会变笨、变坏,而且这种伤害很难逆转。
这就像我们人类刷多了“没营养”的短视频或“标题党”文章后,感觉自己注意力下降、思考能力变弱一样。研究人员发现,AI 也会遭遇同样的“降智”(Brain Rot)问题。
以下是这篇论文的核心发现:
研究人员提出了一个 “大语言模型降智假说”(LLM Brain Rot Hypothesis):持续接触和学习那些琐碎、缺乏挑战性的网络“垃圾内容”,会导致大语言模型出现持久的认知能力下降。
为了验证这个假说,研究团队设计了一个巧妙的对照实验。他们从真实的 Twitter/X 社交平台数据中,定义了两种类型的“垃圾数据”:
M1(流量型垃圾):短小且流行 (Short & Popular)
M2(内容型垃圾):低劣语义 (Sensationalist)
他们让4个不同的大语言模型分别持续学习这些“垃圾数据”和“健康数据”,然后进行对比测试。
和“健康数据”对照组相比,学习了“垃圾数据”的模型出现了显著的全面衰退:
研究还发现,这不是一个“是或否”的问题,而是一个“程度”问题。他们尝试了不同比例的“垃圾”投喂(比如20%垃圾、50%垃圾、100%垃圾)。
结果显示:垃圾数据的比例越高,模型的认知能力就衰退得越厉害。例如,在M1(流量型垃圾)实验中,当垃圾比例从0%(完全健康)上升到100%时,模型的推理能力得分从74.9%暴跌到57.2%。
研究人员深入分析了AI的“思考过程”,找到了“降智”的主要病灶:思维跳跃(Thought-skipping)。
当你要求一个健康的模型“一步一步思考”来解决问题时,它会列出详细的推理链条。但“降智”后的模型变得“懒惰”了:
研究人员尝试了两种方法来“治愈”这些“降智”的模型:
方法一:反思(Reflection)
方法二:数据排毒(Post-hoc Tuning)
结论:“降智”效应是持久的(persistent)。它不是简单的格式错乱,而是模型内部的“表征漂移”——好比AI的“大脑结构”被永久性地改变了。
这篇论文给所有AI开发者敲响了警钟:数据质量是AI的“安全问题”,而不仅仅是性能问题。
如果我们放任大语言模型在充斥着“垃圾内容”的互联网上“野蛮生长”,它们不仅不会变得更聪明,反而会累积“认知伤害”,变得更笨、更危险,而且这种伤害一旦造成,就很难再被治愈。
对于领导者有很多种描绘。有一种是,他们一走进房间,好像空气都要凝固了,每个人都怕他们。突然之间,每个员工开始迎合老板的喜好,而不是客户的真正需求。这是世界上最糟糕的老板。@蔡崇信