Skip to content

Shlok Khemani

2 posts by Shlok Khemani

Claude 的记忆功能:不同的产品哲学

Claude 和 ChatGPT 这两大顶尖 AI 助手,在“记忆”功能的实现上采取了完全相反的两种策略。这种差异深刻地反映了它们各自的产品定位、目标用户群体和设计哲学。

Claude 的记忆系统:显式、可控的工具
Section titled “Claude 的记忆系统:显式、可控的工具”

Claude 的记忆功能被设计成一个由用户主动调用的工具,而非一个持续运行的后台服务。其主要特点是:

  1. 从零开始 (Blank Slate):每次对话都始于一个空白状态,不会预先加载任何用户画像或历史记录。
  2. 用户主动触发 (Explicit Invocation):记忆功能只有在用户使用“我们上次聊了什么?”等明确指令时才会被激活。
  3. 基于原始对话的搜索 (Raw History Search):它不会创建 AI 生成的用户摘要或压缩档案,而是通过实时搜索用户的原始聊天记录来回忆信息。
  4. 两大搜索工具
    • conversation_search:根据关键词或主题在全部历史记录中进行搜索。
    • recent_chats:根据时间范围(如“最近10次对话”或“去年11月的最后一周”)来检索对话。
ChatGPT 的记忆系统:隐式、自动的体验
Section titled “ChatGPT 的记忆系统:隐式、自动的体验”

与 Claude 相反,ChatGPT 的记忆功能是为大众消费市场设计的,其特点是:

  1. 自动运行 (Always-On):记忆功能自动加载,无需用户干预,提供即时的个性化体验。
  2. 创建用户画像 (User Profiling):系统会持续学习用户的偏好和模式,构建详细的用户档案。
  3. 追求“魔法般”的体验:目标是让产品感觉智能、贴心、无缝,让用户无需思考其工作原理。

这种设计上的分歧源于两家公司不同的市场策略:

  • Claude 瞄准专业用户:其用户群体主要是开发者、研究人员等技术型专业人士。这些人理解 LLM 的工作原理,偏爱精准的控制权,并能接受为了调用记忆而产生的额外延迟。对他们而言,记忆是一个强大的、可预测的专业工具,隐私和可控性至关重要。

  • ChatGPT 瞄准大众市场:其用户群体覆盖学生、家长等各类普通消费者。他们希望产品开箱即用、简单方便,能自动记住他们的信息。这是典型的消费级科技产品的策略:先通过“魔法般”的体验吸引并留住海量用户,后续再探索商业化模式。

作者认为,两大巨头采取截然相反的路径,说明 AI 记忆功能的设计空间极其广阔,没有唯一的正确答案。最佳方案取决于产品的目标用户和具体需求。目前,这个领域仍处于早期探索阶段(“寒武纪大爆发”),各大公司都在尝试不同的方法,远未形成行业标准。

最后更新:文章发布后不久,Anthropic (Claude 的母公司) 宣布为其团队版和企业版用户推出一项新的记忆功能,该功能看起来更接近 ChatGPT 的自动画像模式。这表明,AI 记忆领域的发展和演变速度极快。

ChatGPT 的记忆功能:重温《惨痛的教训》

本文作者通过直接向 ChatGPT 提问的方式,对其记忆系统进行了逆向工程,揭示了其工作原理和内部结构。

ChatGPT 的记忆系统主要由四个部分组成,每次交互时都会被提供给模型:

  1. 交互元数据 (Interaction Metadata):

    • 包含用户的设备信息(屏幕尺寸、浏览器/操作系统)、使用模式(话题偏好、消息长度、活跃度)等。
    • 模型可利用这些数据隐式地推断用户环境(如自动识别用户使用 iPhone),从而提供更具针对性的回答。
  2. 近期对话内容 (Recent Conversation Content):

    • 包含最近几十次对话的用户消息摘要(不含 AI 的回复)。
    • 这有助于在不同对话间建立联系,让模型更好地理解上下文,例如在用户连续多个对话都讨论日本旅行后,能推断出“那里”指的是日本。
  3. 模型设定上下文 (Model Set Context):

    • 用户明确告知并可以随时在设置中查看和删除的事实,例如“我对贝类过敏”。
    • 这是用户完全可控的、最高优先级的“事实来源”,可以覆盖其他记忆模块中的信息。
  4. 用户知识记忆 (User Knowledge Memories):

    • 这是最新、最核心的部分。它是 OpenAI 定期从用户的海量对话历史中生成的、高度浓缩的 AI 摘要
    • 这些记忆对用户不可见、不可直接编辑,包含了关于用户职业、兴趣、项目、技术栈、品牌偏好等极其详细的细节。
    • 虽然信息密度极高,但可能包含过时或不准确的内容(例如用户曾计划但未成行的旅行)。
核心工作原理:“惨痛的教训” (The Bitter Lesson)
Section titled “核心工作原理:“惨痛的教训” (The Bitter Lesson)”

文章指出,ChatGPT 的记忆系统并未使用复杂的检索增强生成(RAG)、向量数据库等技术来筛选相关记忆。

相反,它采取了一种“简单粗暴”但有效的方式:每次交互都将上述所有四类记忆信息全部塞入模型的上下文窗口

这体现了 OpenAI 的核心赌注:

  1. 模型足够智能: 相信强大的模型能自行在海量上下文中分辨和利用相关信息,忽略无关信息。
  2. 算力和上下文窗口将越来越便宜: 随着技术发展,将所有信息打包发送的成本会变得微不足道。

这再次印证了强化学习之父 Rich Sutton 在 2019 年写的 《惨痛的教训(The Bitter Lesson)》——与其构建复杂的工程解决方案,不如将资源投入到提升模型本身的能力和算力上。

ChatGPT 的记忆功能类似 LLM 的训练过程:“用户知识记忆”如同一个庞大但更新缓慢的基础模型,而其他三部分则像是用于实时调整和修正的引导层(类似于 RLHF 和上下文学习)。

  1. 用户知识记忆: 像预训练模型,浓缩了长期信息但会过时。
  2. 模型设定上下文: 相当于用户的 RLHF,具有最高优先级。
  3. 近期对话内容: 类似于即时的 in-context 学习。
  4. 交互元数据: 则像系统默认参数,提供环境信号。

未来的挑战不仅在于技术(如更频繁地更新“用户知识记忆”),更在于产品层面:如何处理过时信息、如何验证事实,以及 AI 为用户建立详细档案所带来的隐私和伦理问题。