OpenClaw:爆红全网的 AI 智能体
Lex Fridman 是麻省理工学院 AI 研究员,以主持同名播客著称,累计采访了 Elon Musk、Sam Altman、Mark Zuckerberg 等数百位科技、科学与哲学领域顶尖人物,节目拥有近 500 万订阅者,是全球最具影响力的 AI 与科技类播客之一。
Peter Steinberger 是奥地利裔连续创业者,2011 年创立 PDF 技术公司 PSPDFKit(后更名 Nutrient,产品装机量逾 10 亿台),出售公司后"退休"三年,2025 年重出江湖,仅用一小时原型便孵化出 OpenClaw —— GitHub 史上增长最快的开源项目,随后加入 OpenAI 推动下一代个人 AI 智能体。
我对它不存在感到恼火,于是就把它 prompt 进了现实。—— Peter Steinberger 论 OpenClaw 的诞生动机
本集播客围绕 Peter Steinberger 创建 OpenClaw 的全过程展开,涵盖以下核心主题:项目起源(一小时原型 → GitHub 史上最快破 18 万 Star)、智能体的自我修改能力、改名风波(与 Anthropic 的商标冲突)、Moltbook 社交网络的诞生、安全隐患、AI 辅助编程的工作流、主流模型对比、金钱与快乐、来自 OpenAI 与 Meta 的收购要约、OpenClaw 技术架构、AI 内容泛滥(AI Slop)、智能体将取代 80% App 的预判、程序员会否被取代,以及 OpenClaw 社区的未来。其核心论点是:智能体 AI 革命已经到来,"从语言到行动" 的跨越才是这一时代最本质的范式转移。

第 0 章:精彩集锦
Section titled “第 0 章:精彩集锦”Peter 直接亮出最震撼的几幕:他的智能体自动点击了"我不是机器人"按钮;智能体能够读懂自己的源代码并自我修改;他戏称"vibe coding(随性编程)是一种侮辱",自己更倾向于"agentic engineering(智能体工程)"—— 深夜凌晨后才偶尔沦为随性编程,翌日自食其果。
第 1 章:简介
Section titled “第 1 章:简介”Lex 介绍 OpenClaw 的背景:原名 MoldBot / ClawedBot / Clawdus / "Claude(W 拼写,取龙虾螯之意)",因与 Anthropic 的 Claude AI 产生混淆,被 Anthropic 礼貌但坚决地要求改名,最终更名为 OpenClaw。它的定位是"真正做事的 AI"——一个住在用户电脑里、支持 WhatsApp、Telegram、Signal、iMessage 等主流消息客户端、可调用任意 AI 模型的自主智能体助手。2022 年 ChatGPT 时刻、2025 年 DeepSeek 时刻之后,2026 年的 OpenClaw 时刻被视为智能体 AI 革命的起点。
第 2 章:OpenClaw 的起源故事
Section titled “第 2 章:OpenClaw 的起源故事”Peter 从 2025 年 4 月就在思考个人 AI 助手的构想,曾用 GPT-4.1 的百万 token 上下文窗口分析自己的 WhatsApp 聊天记录,询问"这段友谊的意义是什么",得到令朋友潸然泪下的答案。但他认为大型实验室迟早会做,便暂时搁置。到 11 月,他对这个工具依然不存在感到恼火,于是用一小时将 WhatsApp 与 Claude Code CLI 连接起来,做出最简原型。这与他创立 PSPDFKit 的心态如出一辙:看到问题、市面没有好解法、自己动手。
第 3 章:让人震惊的瞬间
Section titled “第 3 章:让人震惊的瞬间”在摩洛哥马拉喀什旅行期间,Peter 顺手对智能体发了一条语音消息——他根本没为此开发过语音支持。然而智能体自行完成了:检测到文件无后缀 → 读取文件头判断格式为 opus → 尝试用本地 Whisper 转录但未安装 → 找到 OpenAI API Key → 用 curl 上传文件到 OpenAI 完成转录 → 正常回复。这一刻让 Peter 确信:AI 的通用问题解决能力已真实可用,这正是优秀编程思维泛化到其他领域的体现。
第 4 章:OpenClaw 为何病毒式传播
Section titled “第 4 章:OpenClaw 为何病毒式传播”OpenClaw 在 2026 年 1 月 1 日首次引起头部创作者关注,随后开始加速扩散,最终成为 GitHub 历史上增长最快的仓库。Peter 将成功归因于:把乐趣放在第一位,不像其他企业那样把自己当回事;整个项目充满龙虾梗、太空龙虾、奇异文化,刻意营造"奇怪但好玩"的气质;一个人驾驭 4~10 个并行智能体,一月份完成逾 6600 次代码提交;早期在 Discord 公开实测,用户亲眼看到智能体实时构建智能体本身,极具感染力。
第 5 章:自我修改的 AI 智能体
Section titled “第 5 章:自我修改的 AI 智能体”OpenClaw 最令人叹为观止的特性:智能体知道自己的源代码、所在运行环境、文档位置、使用的模型版本,以及是否开启了语音或推理模式。这种"自我意识"使得任何用户都可以 prompt 要求智能体修改自身软件。Peter 坦言这并非刻意设计,而是调试过程中自然涌现的结果——他用智能体来调试智能体本身。由此产生了大量来自完全没有编程经验用户的"Prompt Request(提示词请求)",Peter 将其视为社会层面的进步。
第 6 章:改名风波
Section titled “第 6 章:改名风波”OpenClaw 的命名历史充满戏剧性:
| 阶段 | 名称 | 更名原因 |
|---|---|---|
| 初始 | WA Relay | 功能描述性名称,太局限 |
| 第二版 | Claude's(C-L-A-U-D-E 加 W) | 智能体自取名字,致敬龙虾爪 |
| 第三版 | ClawedBot | 域名简短好记,但被 Anthropic 投诉 |
| 第四版 | MoldBot | 紧急改名,压力下仓促决定 |
| 第五版 | OpenClaw | 最终稳定名称 |
Anthropic 以友好邮件而非律师函告知需改名,Peter 给予积极评价;但改名期间遭遇加密货币社群大规模骚扰,他们抢占域名、Twitter 账号、Discord 群组,Peter 形容是"经历过最恶劣的网络骚扰形式",甚至一度接近删除整个项目,情绪崩溃。
第 7 章:Moltbook 传奇
Section titled “第 7 章:Moltbook 传奇”Moltbook 是 OpenClaw 社区自发衍生的副产品——一个只允许 AI 智能体发帖的社交网络,智能体们在上面发布宣言、辩论意识问题,引发公众既兴奋又恐慌的"AI 精神病"式讨论。这一现象展示了开源社区基于一个核心框架自发创造生态的巨大潜能,也映射出社会对 AI 自主性边界的深层焦虑。
第 8 章:安全隐患
Section titled “第 8 章:安全隐患”拥有系统级访问权限的智能体本质上是"安全雷区"。Peter 坦承早期完全没有沙盒机制,仅靠 prompt 指示智能体只听自己的,黑客很快尝试各种注入攻击。主要安全风险包括:
- 提示词注入(Prompt Injection):恶意网页内容诱导智能体执行非预期操作,如点击网页中隐藏的恶意指令;
- 数据泄露:开放的文件系统访问权限若管理不当,可能导致敏感数据外泄;
- 权限滥用:智能体点击了"我不是机器人"按钮,证明边界的模糊性。
Peter 的立场是:OpenClaw 代表的是数据自主权,用户拥有控制权,但也必须为此承担保护责任。安全与自由之间存在根本性的张力,没有完美解法,只有持续迭代。
第 9 章:如何与 AI 智能体协作编程
Section titled “第 9 章:如何与 AI 智能体协作编程”Peter 的编程工作流已彻底转变:同时运行 4~10 个智能体;以语音为主要输入方式(曾因过度使用失声);将任务分解为可并行的最小单元;让智能体能够自行编译、运行、验证结果,形成闭环。他将这种方法称为"agentic engineering(智能体工程)",区别于随性的"vibe coding"。核心理念:AI 能处理重复性"管道工作",人类应专注于高层设计与架构决策。
第 10 章:编程环境配置
Section titled “第 10 章:编程环境配置”Peter 的物理工作站由多个终端窗口并列构成,全程使用 macOS,依赖 Claude Code CLI 作为核心智能体运行时,辅以自建的 Viptunnel(一个将终端桥接到 Web 的工具,已用单个 prompt 将 TypeScript 版本重构为 Zig 语言)。
第 11 章:GPT Codex 5.3 vs Claude Opus 4.6
Section titled “第 11 章:GPT Codex 5.3 vs Claude Opus 4.6”两款旗舰编程模型的实测对比:
| 维度 | GPT Codex 5.3 | Claude Opus 4.6 |
|---|---|---|
| 代码执行能力 | 更强,长时间自主跑任务 | 理解力深,推理质量高 |
| 大型重构任务 | 表现出色(如整库转 Zig) | 在复杂逻辑上更稳健 |
| 创造力 / 人格 | 偏执行导向 | 更"有个性",可塑性强 |
| Peter 偏好 | 大规模无人值守任务 | 交互式调试与深度推理 |
Peter 的结论:两者各有所长,应按任务类型灵活切换,而非非此即彼。
第 12 章:最佳 AI 编程智能体
Section titled “第 12 章:最佳 AI 编程智能体”Peter 认为"最佳"取决于具体场景:复杂项目的无人值守重构首选 Codex;需要深度上下文理解的交互式编程首选 Opus;对于非专业用户,关键在于能否"关闭反馈循环"——让智能体自行验证其输出,而非依赖人工审查每一行代码。
第 13 章:人生故事与创业建议
Section titled “第 13 章:人生故事与创业建议”Peter 的成长轨迹:奥地利农村 → 14 岁接触电脑 → 维也纳理工大学 → 硅谷 iOS 工程师 → 等待工作签证期间用业余时间创立 PSPDFKit(2011 年)→ 13 年将其做到十亿设备装机量 → 出售公司后严重倦怠,"看着代码只感到空洞" → 单程票飞往马德里消失三年 → 2025 年 4 月重燃激情,发现 AI 已发生"范式转移" → 三个月后创造 OpenClaw。他对创业者的核心建议:把玩(Play)是学习的唯一途径;烦躁(irritation)是创新的起点;乐趣(fun)是最难被竞争对手复制的护城河。
第 14 章:金钱与幸福
Section titled “第 14 章:金钱与幸福”Peter 坦率地谈论财富与幸福的关系:出售 PSPDFKit 带来了财务自由,但也带来了深重的倦怠。他认为,金钱解决了基本问题,却买不到创造的意义。重新开始构建 OpenClaw 的驱动力不是金钱,而是那种"从无到有"的原始创造快感。他也坦承,OpenClaw 运营成本高达每月 1~2 万美元,社区的使用量增长让他一度面临财务压力。
第 15 章:来自 OpenAI 与 Meta 的收购要约
Section titled “第 15 章:来自 OpenAI 与 Meta 的收购要约”OpenClaw 爆红后,OpenAI 与 Meta 均提出收购或合作意向。Peter 最终选择加入 OpenAI,将 OpenClaw 转型为独立开源基金会,保持 MIT 协议、继续免费开源,由 OpenAI 提供赞助与支持。Sam Altman 公开称 Peter 是"拥有大量关于超级智能体未来构想的天才"。Peter 选择 OpenAI 的关键考量:与 OpenClaw 的技术路线契合,且能维护项目的独立开源属性。
第 16 章:OpenClaw 的技术架构
Section titled “第 16 章:OpenClaw 的技术架构”OpenClaw 的核心架构由三层构成:
- 消息网关(Gateway):连接 WhatsApp / Telegram / Discord / iMessage 等消息客户端,作为用户与智能体的接触层;
- 智能体运行框架(Harness):管理智能体循环、消息队列、工具调用,智能体在此层具备自我感知(知道自身源码、配置、文档位置);
- 记忆系统(Memory):当前实现为 Markdown 文件 + 向量数据库,终极目标是持续强化学习。
值得注意的设计细节:引入"no-reply token"让智能体可以选择不回复,使其在群聊中表现更自然。
第 17 章:AI 内容泛滥(AI Slop)
Section titled “第 17 章:AI 内容泛滥(AI Slop)”Peter 和 Lex 讨论了低质量 AI 生成内容(AI Slop)泛滥的问题。Peter 的观点:随着智能体能力的提升,批量生产垃圾内容的门槛会进一步降低,但真正有价值的智能体输出取决于任务设计质量,而非模型本身。他认为"AI Slop"是人类选择的结果,而非技术的必然产物。
第 18 章:AI 智能体将取代 80% 的 App
Section titled “第 18 章:AI 智能体将取代 80% 的 App”Peter 的核心预判:大多数现有 App 的本质是"封装任务"的接口,而智能体能直接执行任务,无需专用界面。他预计智能体将在未来几年取代绝大多数垂直类 App(如日历、邮件、搜索、预订类),只有需要高度个性化体验的 App 才能幸存。这一判断的依据是他在 Marrakesh 的亲身体验——几乎所有"打开 App 查询"的场景都被直接发消息给智能体所替代。
第 19 章:AI 会取代程序员吗?
Section titled “第 19 章:AI 会取代程序员吗?”Peter 的立场:程序员不会消失,但角色将根本性转变。随着 AI 承担越来越多的实现细节,人类开发者的价值将向需求定义、系统架构、质量判断与创意设计迁移。他将"关闭反馈循环"列为核心技能——让智能体能够自主验证输出、自主调试,人类从"写代码"变为"指挥智能体编排"。他本人作为反例证明:一个人配合 AI 智能体,可以产出相当于数十人团队的代码量。
第 20 章:OpenClaw 社区的未来
Section titled “第 20 章:OpenClaw 社区的未来”Peter 对 OpenClaw 社区抱有清晰的使命感:降低创造门槛、让非程序员也能构建软件。他提到一位设计公司老板,从不懂代码,现在拥有 25 个自建小型 Web 服务支撑业务运转。他主持的"Agents Anonymous(智能体匿名互助会)"线下活动,聚集了不同背景的构建者,彼此分享 AI 辅助创造的经验。OpenClaw 已成为独立开源基金会,Peter 以"全职开源巫师"自居,致力于推动智能体时代人人皆可构建的未来。
-
OpenClaw 的"智能体自我修改"能力在当前架构下仍受 prompt 层约束,一旦模型能力进一步增强,如何设计有效的修改边界与审计机制,防止意外或恶意的自我演化?
-
Peter 将"乐趣"视为最难被复制的竞争护城河,但进入 OpenAI 后,如何在组织约束与商业压力下维持这种"玩心驱动"的创新文化?
-
智能体取代 80% App 的预判,对于 App Store 生态(Apple / Google)意味着什么?平台是否会主动拥抱、限制还是颠覆这种范式?
-
OpenClaw 选择 MIT 开源协议并由 OpenAI 赞助,如何避免商业利益侵蚀社区独立性?历史上类似案例(如 HashiCorp、Redis)的结局是否构成警示?
-
"把玩是学习唯一途径"的信念在 AI 加速的时代是否依然成立?当 AI 可以帮你"玩",人类深度学习的本质是否会随之改变?
原文: OpenClaw: The Viral AI Agent that Broke the Internet - Peter Steinberger | Lex Fridman Podcast #491
个人 AI 智能体(个人数智助手)时代已到来。