Skip to content
登录/注册
Model avatar

qwen3-max

通义千问
上下文窗口
262K
创建时间
2025/11/19

Qwen3-Max是基于Qwen3系列构建的更新版本,与2025年1月版本相比,在推理、指令跟随、多语言支持和长尾知识覆盖方面有了重大改进。它在数学、编码、逻辑和科学任务中提供更高的准确性,更可靠地遵循复杂的中文和英文指令,减少幻觉,并为开放式问答、写作和对话提供更高质量的响应。该模型支持 100 多种语言,具有更强的翻译和常识推理能力,并针对检索增强生成(RAG)和工具调用进行了优化,尽管它不包含专门的“思考”模式。

模型价格

输入量输入价格输出价格
32K2.7元 / 1M10.8元 / 1M
32K128K4.32元 / 1M17.28元 / 1M
> 128K7.56元 / 1M30.24元 / 1M

API 接入信息

Model ID
qwen3-max
用于在推理接口中指定模型
API Key
前往 API Key 管理查看
用于设置推理接口的 Bearer Token(OAuth 2.0 认证令牌)
OpenAI BaseURL
OpenAIhttps://api.atalk-ai.com/v2/
兼容 OpenAI 接口(即 /chat/completions),支持 OpenAI SDK、Codex 等

模型能力

输入
文本
输出
文本

qwen3-max 接入示例

海鲸AI 兼容 OpenAI 接口协议,可直接使用 OpenAI SDK 或 HTTP 请求接入,默认开启流式输出。

js
curl https://api.atalk-ai.com/v2/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <API_KEY>" \
  -d '{
    "model": "qwen3-max",
    "messages": [
      {"role": "system", "content": "你是一个有帮助的助手。"},
      {"role": "user", "content": "你好!"}
    ],
    "stream": true
  }'
js
from openai import OpenAI

client = OpenAI(
    base_url="https://api.atalk-ai.com/v2",
    api_key="<API_KEY>",
)

stream = client.chat.completions.create(
    model="qwen3-max",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手。"},
        {"role": "user", "content": "你好!"},
    ],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
js
import OpenAI from 'openai'

const client = new OpenAI({
  baseURL: 'https://api.atalk-ai.com/v2',
  apiKey: '<API_KEY>',
})

const stream = await client.chat.completions.create({
  model: 'qwen3-max',
  messages: [
    { role: 'system', content: '你是一个有帮助的助手。' },
    { role: 'user', content: '你好!' },
  ],
  stream: true,
})

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content ?? '')
}