Skip to content
登录/注册
Model avatar

o4-mini

openai
上下文窗口
200K
创建时间
2025/11/22

OpenAI o4-mini 是 o 系列中的紧凑推理模型,针对快速、经济高效的性能进行了优化,同时保留了强大的多模式和代理功能。它支持工具使用,并在 AIME(Python 为 99.5%)和 SWE-bench 等基准测试中展示了具有竞争力的推理和编码性能,优于其前身 o3-mini,甚至在某些领域接近 o3。 尽管尺寸较小,o4-mini 在 STEM 任务、视觉问题解决(例如 MathVista、MMMU)和代码编辑方面表现出高精度。它特别适合延迟或成本至关重要的高吞吐量场景。得益于其高效的架构和完善的强化学习训练,o4-mini 可以链接工具、生成结构化输出并以最小的延迟(通常在一分钟内)解决多步骤任务。

模型价格

计费项价格
输入8.1972元 / 1M
缓存命中输入2.0493元 / 1M
输出32.7888元 / 1M

API 接入信息

Model ID
o4-mini
用于在推理接口中指定模型
API Key
前往 API Key 管理查看
用于设置推理接口的 Bearer Token(OAuth 2.0 认证令牌)
OpenAI BaseURL
OpenAIhttps://api.atalk-ai.com/v2/
兼容 OpenAI 接口(即 /chat/completions),支持 OpenAI SDK、Codex 等

模型能力

输入
文本
输出
文本

o4-mini 接入示例

海鲸AI 兼容 OpenAI 接口协议,可直接使用 OpenAI SDK 或 HTTP 请求接入,默认开启流式输出。

js
curl https://api.atalk-ai.com/v2/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <API_KEY>" \
  -d '{
    "model": "o4-mini",
    "messages": [
      {"role": "system", "content": "你是一个有帮助的助手。"},
      {"role": "user", "content": "你好!"}
    ],
    "stream": true
  }'
js
from openai import OpenAI

client = OpenAI(
    base_url="https://api.atalk-ai.com/v2",
    api_key="<API_KEY>",
)

stream = client.chat.completions.create(
    model="o4-mini",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手。"},
        {"role": "user", "content": "你好!"},
    ],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
js
import OpenAI from 'openai'

const client = new OpenAI({
  baseURL: 'https://api.atalk-ai.com/v2',
  apiKey: '<API_KEY>',
})

const stream = await client.chat.completions.create({
  model: 'o4-mini',
  messages: [
    { role: 'system', content: '你是一个有帮助的助手。' },
    { role: 'user', content: '你好!' },
  ],
  stream: true,
})

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content ?? '')
}