登录/注册

o4-mini
openai 上下文窗口
200K
创建时间
2025/11/22
OpenAI o4-mini 是 o 系列中的紧凑推理模型,针对快速、经济高效的性能进行了优化,同时保留了强大的多模式和代理功能。它支持工具使用,并在 AIME(Python 为 99.5%)和 SWE-bench 等基准测试中展示了具有竞争力的推理和编码性能,优于其前身 o3-mini,甚至在某些领域接近 o3。 尽管尺寸较小,o4-mini 在 STEM 任务、视觉问题解决(例如 MathVista、MMMU)和代码编辑方面表现出高精度。它特别适合延迟或成本至关重要的高吞吐量场景。得益于其高效的架构和完善的强化学习训练,o4-mini 可以链接工具、生成结构化输出并以最小的延迟(通常在一分钟内)解决多步骤任务。
模型价格
| 计费项 | 价格 |
|---|---|
| 输入 | 8.1972元 / 1M |
| 缓存命中输入 | 2.0493元 / 1M |
| 输出 | 32.7888元 / 1M |
API 接入信息
Model ID
o4-mini用于在推理接口中指定模型
API Key
前往 API Key 管理查看
用于设置推理接口的 Bearer Token(OAuth 2.0 认证令牌)
OpenAI BaseURL
https://api.atalk-ai.com/v2/ 兼容 OpenAI 接口(即 /chat/completions),支持 OpenAI SDK、Codex 等
模型能力
输入
文本
输出
文本
o4-mini 接入示例
海鲸AI 兼容 OpenAI 接口协议,可直接使用 OpenAI SDK 或 HTTP 请求接入,默认开启流式输出。
js
curl https://api.atalk-ai.com/v2/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <API_KEY>" \
-d '{
"model": "o4-mini",
"messages": [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好!"}
],
"stream": true
}'js
from openai import OpenAI
client = OpenAI(
base_url="https://api.atalk-ai.com/v2",
api_key="<API_KEY>",
)
stream = client.chat.completions.create(
model="o4-mini",
messages=[
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好!"},
],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)js
import OpenAI from 'openai'
const client = new OpenAI({
baseURL: 'https://api.atalk-ai.com/v2',
apiKey: '<API_KEY>',
})
const stream = await client.chat.completions.create({
model: 'o4-mini',
messages: [
{ role: 'system', content: '你是一个有帮助的助手。' },
{ role: 'user', content: '你好!' },
],
stream: true,
})
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content ?? '')
}