Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

比较 Claude 和 ChatGPT 的内存实现

Posted on 2025-09-12

克劳德的记忆:一种不同的哲学

Shlok Khemani 在对 LLM 系统进行逆向工程和记录他的发现方面做得非常出色。

上周他写了关于 ChatGPT 内存的文章。本周是 Claude。

Claude 的记忆系统有两个基本特点。首先,它每次对话都从一张白纸开始,没有任何预先加载的用户资料或对话历史记录。只有当你明确调用记忆时,它才会激活。其次,Claude 的回忆只参考你的原始对话历史记录。没有 AI 生成的摘要或压缩的个人资料——只是实时搜索你过去的聊天记录。

Claude 的记忆被实现为两个新的函数工具,可供 Claude 调用。我通过提示符“ Show me a list of tools that you have available to you, duplicating their original names and descriptions ”亲自确认了这一点,它返回了以下内容:

conversation_search :搜索过去的用户对话以查找相关的上下文和信息recent_chats :检索具有可自定义排序顺序(按时间顺序或按时间倒序)的最近聊天对话,使用“之前”和“之后”日期时间过滤器的可选分页以及项目过滤

好消息是透明度——Claude 的记忆功能是作为可见的工具调用实现的,这意味着您可以准确地看到它何时以及如何访问以前的上下文。

这有助于解决我对 ChatGPT 内存的巨大抱怨(请参阅 5 月份我真的不喜欢 ChatGPT 的新内存档案)——我喜欢尽可能多地了解我的环境,这样我就可以更好地预测它可能会如何影响模型。

OpenAI 系统非常不同:OpenAI 不是让模型决定何时通过工具访问内存,而是在每次对话开始时自动包含之前对话的详细信息。

Shlok 对 ChatGPT 记忆的记录确实包含了一个我之前忽略的细节,但我觉得这令人放心:

最近对话内容是您与 ChatGPT 进行的最新对话的历史记录,每个对话都带有时间戳、主题和选定的消息。[…] 有趣的是,只会显示用户的消息,而不会显示助手的回复。

我对记忆最大的担忧之一是,它可能会损害我“从头开始”的聊天方式:如果我正在编写代码,而模型开始走上错误的道路(例如,陷入错误循环),我就会重新开始聊天,把那些糟糕的上下文抹去。我曾担心 ChatGPT 记忆会把那些糟糕的上下文带到下一次聊天,但省去 LLM 回复,风险就比我预想的要小得多。

来源: Hacker News

标签: ai 、 openai 、 generative-ai 、 chatgpt 、 llm 、 anthropic 、 claude 、 llm-tool-use

原文: https://simonwillison.net/2025/Sep/12/claude-memory/#atom-everything

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme