Skip to content
登录/注册
Model avatar

Qwen3.5-plus

通义千问
上下文窗口
1.0M
创建时间
2026/03/09

Qwen3.5原生视觉语言系列Plus模型基于混合架构构建,将线性注意力机制与稀疏混合专家模型相结合,实现更高的推理效率。在各种任务评估中,3.5 系列始终表现出与最先进的领先型号相当的性能。与 3 系列相比,这些模型在纯文本和多模式功能方面都显示出飞跃。

模型价格

输入量输入价格输出价格
128K0.864元 / 1M2.16元 / 1M
128K256K2.592元 / 1M21.6元 / 1M
> 256K5.184元 / 1M51.84元 / 1M

API 接入信息

Model ID
qwen3.5-plus
用于在推理接口中指定模型
API Key
前往 API Key 管理查看
用于设置推理接口的 Bearer Token(OAuth 2.0 认证令牌)
OpenAI BaseURL
OpenAIhttps://api.atalk-ai.com/v2/
兼容 OpenAI 接口(即 /chat/completions),支持 OpenAI SDK、Codex 等

模型能力

输入
文本 图像
输出
文本

qwen3.5-plus 接入示例

海鲸AI 兼容 OpenAI 接口协议,可直接使用 OpenAI SDK 或 HTTP 请求接入,默认开启流式输出。

js
curl https://api.atalk-ai.com/v2/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer <API_KEY>" \
  -d '{
    "model": "qwen3.5-plus",
    "messages": [
      {"role": "system", "content": "你是一个有帮助的助手。"},
      {"role": "user", "content": "你好!"}
    ],
    "stream": true
  }'
js
from openai import OpenAI

client = OpenAI(
    base_url="https://api.atalk-ai.com/v2",
    api_key="<API_KEY>",
)

stream = client.chat.completions.create(
    model="qwen3.5-plus",
    messages=[
        {"role": "system", "content": "你是一个有帮助的助手。"},
        {"role": "user", "content": "你好!"},
    ],
    stream=True,
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)
js
import OpenAI from 'openai'

const client = new OpenAI({
  baseURL: 'https://api.atalk-ai.com/v2',
  apiKey: '<API_KEY>',
})

const stream = await client.chat.completions.create({
  model: 'qwen3.5-plus',
  messages: [
    { role: 'system', content: '你是一个有帮助的助手。' },
    { role: 'user', content: '你好!' },
  ],
  stream: true,
})

for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content ?? '')
}