Shlok Khemani 在对 LLM 系统进行逆向工程和记录他的发现方面做得非常出色。
上周他写了关于 ChatGPT 内存的文章。本周是 Claude。
Claude 的记忆系统有两个基本特点。首先,它每次对话都从一张白纸开始,没有任何预先加载的用户资料或对话历史记录。只有当你明确调用记忆时,它才会激活。其次,Claude 的回忆只参考你的原始对话历史记录。没有 AI 生成的摘要或压缩的个人资料——只是实时搜索你过去的聊天记录。
Claude 的记忆被实现为两个新的函数工具,可供 Claude 调用。我通过提示符“ Show me a list of tools that you have available to you, duplicating their original names and descriptions
”亲自确认了这一点,它返回了以下内容:
conversation_search :搜索过去的用户对话以查找相关的上下文和信息recent_chats :检索具有可自定义排序顺序(按时间顺序或按时间倒序)的最近聊天对话,使用“之前”和“之后”日期时间过滤器的可选分页以及项目过滤
好消息是透明度——Claude 的记忆功能是作为可见的工具调用实现的,这意味着您可以准确地看到它何时以及如何访问以前的上下文。
这有助于解决我对 ChatGPT 内存的巨大抱怨(请参阅 5 月份我真的不喜欢 ChatGPT 的新内存档案)——我喜欢尽可能多地了解我的环境,这样我就可以更好地预测它可能会如何影响模型。
OpenAI 系统非常不同:OpenAI 不是让模型决定何时通过工具访问内存,而是在每次对话开始时自动包含之前对话的详细信息。
Shlok 对 ChatGPT 记忆的记录确实包含了一个我之前忽略的细节,但我觉得这令人放心:
最近对话内容是您与 ChatGPT 进行的最新对话的历史记录,每个对话都带有时间戳、主题和选定的消息。[…] 有趣的是,只会显示用户的消息,而不会显示助手的回复。
我对记忆最大的担忧之一是,它可能会损害我“从头开始”的聊天方式:如果我正在编写代码,而模型开始走上错误的道路(例如,陷入错误循环),我就会重新开始聊天,把那些糟糕的上下文抹去。我曾担心 ChatGPT 记忆会把那些糟糕的上下文带到下一次聊天,但省去 LLM 回复,风险就比我预想的要小得多。
来源: Hacker News
标签: ai 、 openai 、 generative-ai 、 chatgpt 、 llm 、 anthropic 、 claude 、 llm-tool-use
原文: https://simonwillison.net/2025/Sep/12/claude-memory/#atom-everything