Skip to content
登录/注册
Model avatar

Qwen3.6 Plus

通义千问
上下文窗口
1.0M
创建时间
2026/04/22

Qwen 3.6 Plus 建立在混合架构之上,将高效的线性注意力与稀疏的专家混合路由相结合,从而实现强大的可扩展性和高性能推理。与3.5系列相比,它在代理编码、前端开发和整体推理方面都有很大的进步,“vibe编码”体验得到显着改善。该模型擅长执行 3D 场景、游戏和存储库级问题解决等复杂任务,在 SWE-bench Verified 上获得 78.8 分。它代表了纯文本和多模式功能的重大飞跃,达到了领先的最先进模型的水平。

模型价格

输入量输入价格输出价格
256K2.16元 / 1M12.96元 / 1M
> 256K8.64元 / 1M51.84元 / 1M

API 接入信息

Model ID
qwen3.6-plus
用于在推理接口中指定模型
API Key
前往 API Key 管理查看
用于设置推理接口的 Bearer Token(OAuth 2.0 认证令牌)
OpenAI BaseURL
OpenAIhttps://api.atalk-ai.com/v2/
兼容 OpenAI 接口(即 /chat/completions),支持 OpenAI SDK、Codex 等

模型能力

输入
文本 图像
输出
文本

qwen3.6-plus 接入示例

海鲸AI 兼容 OpenAI 接口协议,可直接使用 OpenAI SDK 或 HTTP 请求接入,默认开启流式输出。

js
curl https://api.atalk-ai.com/v2/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <API_KEY>" \
  -d '{
    "model": "qwen3.6-plus",
    "messages": [
      {"role": "system", "content": "你是一个有帮助的助手。"},
      {"role": "user", "content": "你好!"}
    ],
    "stream": true
  }'
js
from openai import OpenAI

client = OpenAI(
    base_url="https://api.atalk-ai.com/v2",
    api_key="<API_KEY>",
)

stream = client.chat.completions.create(
    model="qwen3.6-plus",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手。"},
        {"role": "user", "content": "你好!"},
    ],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
js
import OpenAI from 'openai'

const client = new OpenAI({
  baseURL: 'https://api.atalk-ai.com/v2',
  apiKey: '<API_KEY>',
})

const stream = await client.chat.completions.create({
  model: 'qwen3.6-plus',
  messages: [
    { role: 'system', content: '你是一个有帮助的助手。' },
    { role: 'user', content: '你好!' },
  ],
  stream: true,
})

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content ?? '')
}