这是一个模型随着时间的推移而逐步改进的有趣例子:我发现当今领先的模型能够胜任为自己和彼此编写提示。
一年前,我对使用模型来帮助构建提示的模式持怀疑态度。提示工程当时还是一门相当年轻的学科,我并不指望模型拥有足够的训练数据,能够比经验尚浅的人类更好地完成提示任务。
Claude 4 和 GPT-5 系列的培训截止日期都在过去一年内 – 最近他们已经看到了大量良好的提示示例。
我估计他们也为此接受了专门的训练。Anthropic 在《克劳德密码》中大量使用了子代理模式,并发表了一篇关于该模式的精彩文章(这是我的笔记)。
我没有任何确凿的证据来支持这一点——这更像是一种基于轶事证据的预感,过去几个月来,我多次要求模特写提示,并得到了有用的结果。
标签: prompt-engineering 、 llms 、 ai 、 generative-ai 、 gpt-5 、 anthropic 、 claude 、 claude-code 、 claude-4
原文: https://simonwillison.net/2025/Sep/14/models-can-prompt/#atom-everything