OpenAI 今天发布了 o3-pro,他们将其描述为“具有更多计算能力、可实现更好响应的 o3 版本”。
它只能通过较新的 Responses API 使用。我已将其添加到使用该新 API 的llm-openai-plugin插件中,因此您可以像这样尝试:
llm install -U llm-openai-plugin llm -m openai/o3-pro "Generate an SVG of a pelican riding a bicycle"
速度太慢了——生成这只鹈鹕花了 124 秒!OpenAI 建议使用他们的后台模式来处理 o3 提示,不过我自己还没试过。
o3-pro 的价格为每百万输入代币 20 美元,每百万输出代币 80 美元 – 是今早常规 o3价格下跌 80%后的 10 倍。
Ben Hylak 抢先体验了这款产品,并在《上帝渴望上下文:对 o3 pro 的初步想法》一文中发表了他迄今为止的笔记。听起来,这个模型需要非常慎重地应用。它与 o3 的比较如下:
它更聪明,聪明得多。
但为了明白这一点,你需要给它更多的背景。而我已经失去了背景。 […]
我和我的联合创始人亚历克西斯 (Alexis) 花时间整理了我们在 Raindrop 过去的所有规划会议的历史记录、我们所有的目标,甚至录制了语音备忘录:然后要求 o3-pro 制定计划。
我们被震撼了;它给出了我一直希望法学硕士能够创建的那种具体的计划和分析——包括目标指标、时间表、优先事项以及绝对要削减的内容的严格指示。
o3 给我们的计划是可行的、合理的;但 o3 Pro 给我们的计划是具体的、足够根深蒂固的,它实际上改变了我们对未来的看法。
这在评估中很难捕捉到。
我觉得 o3-pro 最好与工具结合使用。我目前还没有llm-openai-plugin
的工具支持,相关问题如下。
标签: LLM 、 OpenAI 、 LLM 推理、 LLM 定价、 O3 、 AI 、 LLMS 、 LLM 发布、生成式人工智能、鹈鹕骑自行车
原文: https://simonwillison.net/2025/Jun/10/o3-pro/#atom-everything