CEO 名言
对于领导者有很多种描绘。有一种是,他们一走进房间,好像空气都要凝固了,每个人都怕他们。突然之间,每个员工开始迎合老板的喜好,而不是客户的真正需求。这是世界上最糟糕的老板。@蔡崇信
对于领导者有很多种描绘。有一种是,他们一走进房间,好像空气都要凝固了,每个人都怕他们。突然之间,每个员工开始迎合老板的喜好,而不是客户的真正需求。这是世界上最糟糕的老板。@蔡崇信
要构建有效、可靠的 AI 智能体(Agent),关键在于将“上下文”(Context)视为一种有限且宝贵的资源,并对其进行精心的管理和优化。
对于超出单个上下文窗口容量的复杂、长期任务,文章提出了三种关键技术:
压缩(Compaction):
结构化笔记/记忆(Structured Note-taking / Agentic Memory):
NOTES.md文件),并在需要时读取。子代理架构(Sub-agent Architectures):
具备持续学习、快速适应、坚韧成长、洞察人性、全球协作的能力,将是未来无法被 AI 取代的关键。
学习能力: 不仅是掌握知识,更是掌握学习的方法。培养批判性思维、问题解决能力与自主学习的习惯,使孩子能够在信息快速更迭的时代持续成长、不断进化。
适应能力: 面对快速变化的技术、行业与社会环境,能够灵活调整思维与行为。包括拥抱新技术、应对不确定性,以及在新环境中迅速找到定位的能力。
韧性: 具备从失败中恢复并持续前行的心理素质。不仅能承受压力和挑战,更能将挫折转化为成长的机会,长期保持积极的心态和动力。
理解人们的需求: 培养共情力与洞察力,真正理解他人问题与期望。这不仅是创造有价值产品与服务的基础,更是未来人机共存时代中,体现人类不可替代价值的关键。
与世界互动: 具备全球视野与跨文化沟通能力,能够有效与不同背景的人协作。同时,理解社会、技术与伦理之间的关系,积极参与构建负责任与可持续的未来。
Claude 和 ChatGPT 这两大顶尖 AI 助手,在“记忆”功能的实现上采取了完全相反的两种策略。这种差异深刻地反映了它们各自的产品定位、目标用户群体和设计哲学。
Claude 的记忆功能被设计成一个由用户主动调用的工具,而非一个持续运行的后台服务。其主要特点是:
conversation_search:根据关键词或主题在全部历史记录中进行搜索。recent_chats:根据时间范围(如“最近10次对话”或“去年11月的最后一周”)来检索对话。与 Claude 相反,ChatGPT 的记忆功能是为大众消费市场设计的,其特点是:
这种设计上的分歧源于两家公司不同的市场策略:
Claude 瞄准专业用户:其用户群体主要是开发者、研究人员等技术型专业人士。这些人理解 LLM 的工作原理,偏爱精准的控制权,并能接受为了调用记忆而产生的额外延迟。对他们而言,记忆是一个强大的、可预测的专业工具,隐私和可控性至关重要。
ChatGPT 瞄准大众市场:其用户群体覆盖学生、家长等各类普通消费者。他们希望产品开箱即用、简单方便,能自动记住他们的信息。这是典型的消费级科技产品的策略:先通过“魔法般”的体验吸引并留住海量用户,后续再探索商业化模式。
作者认为,两大巨头采取截然相反的路径,说明 AI 记忆功能的设计空间极其广阔,没有唯一的正确答案。最佳方案取决于产品的目标用户和具体需求。目前,这个领域仍处于早期探索阶段(“寒武纪大爆发”),各大公司都在尝试不同的方法,远未形成行业标准。
最后更新:文章发布后不久,Anthropic (Claude 的母公司) 宣布为其团队版和企业版用户推出一项新的记忆功能,该功能看起来更接近 ChatGPT 的自动画像模式。这表明,AI 记忆领域的发展和演变速度极快。
LLM 推理的非确定性是一个系统性问题。它源于为追求极致性能而设计的、对批次大小敏感的底层计算库,与现实世界中动态变化的服务器负载之间的矛盾。解决方案是存在的,即强制使用批次不变的计算内核,但这通常需要以牺牲部分性能为代价。
LLM(大语言模型)推理结果的不可复现性(非确定性),并非像通常认为的那样,是由于 GPU 并行计算的随机性与浮点数计算误差的简单结合。真正的罪魁祸首是:核心计算操作(Kernel)缺乏“批次不变性”(Batch Invariance),再结合服务器上不断变化的负载(即变化的批处理大小 Batch Size)。
普遍的误解 vs. 事实
(a+b)+c ≠ a+(b+c)),而 GPU 又以不确定的顺序并行执行这些加法,导致了结果的随机性。真正的非确定性来源
文章指出,要实现完全可复现的推理,必须让模型中的每一个计算环节都做到批次不变,主要涉及以下三个部分: