登录/注册

GLM-4.5
智谱AI 上下文窗口
131K
创建时间
2025/11/22
GLM-4.5 是我们最新的旗舰基础模型,专为基于代理的应用程序而构建。它利用专家混合 (MoE) 架构并支持高达 128k 令牌的上下文长度。 GLM-4.5 在推理、代码生成和代理对齐方面提供了显着增强的功能。它支持具有两种选项的混合推理模式,一种是专为复杂推理和工具使用而设计的“思维模式”,另一种是针对即时响应而优化的“非思维模式”。用户可以使用推理启用布尔值来控制推理行为
模型价格
| 输入量 | 输入价格 | 输出价格 | 缓存命中 |
|---|---|---|---|
| ≤ 32K | 2.16元 / 1M | 8.64元 / 1M | 0.432元 / 1M |
| 32K~128K | 3.24元 / 1M | 15.12元 / 1M | 0.648元 / 1M |
| > 128K | 4.32元 / 1M | 17.28元 / 1M | 0.864元 / 1M |
API 接入信息
Model ID
GLM-4.5用于在推理接口中指定模型
API Key
前往 API Key 管理查看
用于设置推理接口的 Bearer Token(OAuth 2.0 认证令牌)
OpenAI BaseURL
https://api.atalk-ai.com/v2/ 兼容 OpenAI 接口(即 /chat/completions),支持 OpenAI SDK、Codex 等
模型能力
输入
文本
输出
文本
GLM-4.5 接入示例
海鲸AI 兼容 OpenAI 接口协议,可直接使用 OpenAI SDK 或 HTTP 请求接入,默认开启流式输出。
js
curl https://api.atalk-ai.com/v2/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer <API_KEY>" \
-d '{
"model": "GLM-4.5",
"messages": [
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好!"}
],
"stream": true
}'js
from openai import OpenAI
client = OpenAI(
base_url="https://api.atalk-ai.com/v2",
api_key="<API_KEY>",
)
stream = client.chat.completions.create(
model="GLM-4.5",
messages=[
{"role": "system", "content": "你是一个有帮助的助手。"},
{"role": "user", "content": "你好!"},
],
stream=True,
)
for chunk in stream:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)js
import OpenAI from 'openai'
const client = new OpenAI({
baseURL: 'https://api.atalk-ai.com/v2',
apiKey: '<API_KEY>',
})
const stream = await client.chat.completions.create({
model: 'GLM-4.5',
messages: [
{ role: 'system', content: '你是一个有帮助的助手。' },
{ role: 'user', content: '你好!' },
],
stream: true,
})
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content ?? '')
}