Anthropic之前报告过模型服务漏洞,影响了 Claude Opus 4 和 4.1 长达 56.5 小时。现在,他们又修复了近一个月内影响“一小部分” Sonnet 4 请求的额外漏洞,以及一个持续时间较短的 Haiku 3.5 问题:
已解决的问题 1 – 8 月 5 日至 9 月 4 日期间,由于一个错误,一小部分 Claude Sonnet 4 请求的输出质量下降,并且影响从 8 月 29 日至 9 月 4 日不断增大。目前已推出修复程序并解决此事件。
已解决的问题 2 – 8 月 26 日至 9 月 5 日期间,一个单独的错误影响了部分 Claude Haiku 3.5 和 Claude Sonnet 4 请求的输出质量。目前已推出修复程序并解决了此问题。
他们直接回应了这些指责,称这些指责源于故意在服务模式上省钱:
重要的是,我们从未因为需求或其他因素而故意降低模型质量,上述问题源于不相关的错误。
这些问题出现的时机确实很不幸,与 GPT-5 的推出相对应,自去年 6 月发布 Claude 3.5 以来,我认为 GPT-5 是非人拟模型,在编写代码方面真正能与 Claude 竞争。
通过@theo
标签: ai 、 generative-ai 、 llms 、 anthropic 、 claude 、 claude-4 、 gpt-5
原文: https://simonwillison.net/2025/Sep/9/anthropic-model-output-quality/#atom-everything