Gemini 和 OpenAI 都拥有百万级 token 模型,因此很高兴看到 Anthropic 迎头赶上。这是之前各种 Claude Sonnet 模型 20 万级上下文长度限制的 5 倍。
Anthropic 此前已向部分客户发放了 100 万枚代币。以下摘自 2024 年 3 月Claude 3 的公告:
Claude 3 系列模型在发布时将提供 20 万个上下文窗口。不过,所有三个模型都能够接受超过 100 万个 token 的输入,我们可能会将此功能提供给需要增强处理能力的特定客户。
这也是我第一次看到 Anthropic 使用根据上下文长度而变化的价格:
- 提示≤200K:每百万输入3美元,每百万输出15美元
- 提示数 > 200K:投入 6 美元/百万,产出 22.50 美元/百万
Gemini 已经这样做了一段时间:Gemini 2.5 Pro 在 200,000 个代币以下的价格为 1.25 美元/10 美元,在 200,000 个代币以上的价格为 2.50 美元/15 美元。
这是Anthropic 关于 1m 令牌上下文窗口 的完整文档。您需要在请求中发送context-1m-2025-08-07
beta 标头来启用它。
请注意,目前此功能仅限于购买了至少 400 美元 API 积分的“第 4 级”用户:
Sonnet 4 的长上下文支持目前在 Anthropic API 上针对具有 Tier 4 和自定义速率限制的客户进行公开测试,并将在未来几周内推出更广泛的可用性。
标签:人工智能、生成人工智能、法学硕士、人择、克劳德、法学硕士定价、长上下文
原文: https://simonwillison.net/2025/Aug/12/claude-sonnet-4-1m/#atom-everything