Dify 接入教程
低代码平台可视化开发更新时间:2025-11-27产品简介
Dify 是一个开源的大模型应用开发平台,让您无需编写代码即可构建强大的 AI 应用。通过海鲸AI的模型支持,您可以快速打造各类智能应用。
核心功能
- 🎨 可视化开发 - 拖拽式界面,无需编程
- 🤖 多种应用类型 - 聊天助手、Agent、工作流、知识库
- 🔧 丰富的节点 - HTTP、数据库、代码执行等
- 📚 RAG 知识库 - 基于文档的精准问答
- 🔌 插件生态 - 海量插件,功能可扩展
- 🌐 API 发布 - 一键生成 API 接口
- 🎯 多模态支持 - 文本、图像、音频、视频
Dify 应用类型
| 应用类型 | 说明 | 适用场景 | 技术难度 |
|---|---|---|---|
| 聊天助手 | 对话式交互 | 客服机器人、问答助手 | ⭐ |
| Agent | 自主调用工具 | 智能助理、任务自动化 | ⭐⭐⭐ |
| Chatflow | 可视化对话流程 | 复杂对话场景 | ⭐⭐ |
| 工作流 | 自动化流程 | 数据处理、批量任务 | ⭐⭐⭐ |
| 知识库 | 基于文档问答 | 企业知识管理、文档检索 | ⭐⭐ |
为什么选择 Dify + 海鲸AI?
优势组合
- 🚀 快速开发:Dify 可视化 + 海鲸AI 强大模型
- 💰 成本优化:按需付费,灵活选择模型
- 🎯 多模型支持:通义千问、DeepSeek、GPT等
- 🔒 私有部署:支持本地部署,数据安全
- 🌟 开源免费:Dify 核心功能完全开源
前置准备
1. 注册 Dify 账号
| 部署方式 | 说明 | 推荐场景 |
|---|---|---|
| Dify 云服务 | 无需部署,开箱即用 | 快速体验、小型项目 |
| 私有部署 | 完全控制,无限制 | 企业应用、数据安全 |
Dify 云服务(推荐新手)
- 访问 Dify 官网
- 点击 "免费开始"
- 使用 GitHub/Google 账号注册
- 进入工作台
云服务限制
- 免费版最多创建 5 个应用
- 每月有调用量限制
- 企业应用建议私有部署
2. 获取海鲸AI API Key
- 访问 海鲸AI控制台
- 注册并登录账户
- 在 API 管理页面生成 API Key
- 确保账户余额充足
新用户福利
- 🎁 新注册用户可获得免费额度
- 💰 可用于所有模型推理服务
3. 选择合适的模型
海鲸AI通过 Dify 支持以下模型:
推荐模型列表
| 模型系列 | 模型名称 | 特点 | 适用场景 |
|---|---|---|---|
| 通义千问 Plus | qwen-plus-latest | • 性能强 • 支持思考模式 | 聊天助手、Agent |
| 通义千问 Max | qwen-max | • 最强性能 • 长上下文 | 复杂任务、知识库 |
| 通义千问 Turbo | qwen-turbo | • 响应快 • 成本低 | 简单对话、批量处理 |
| 通义千问 VL | qwen-vl-plus | • 视觉理解 • 多模态 | 图像分析、OCR |
| QVQ | qvq-72b-preview | • 视觉推理 • 深度分析 | 视觉问答、场景理解 |
| DeepSeek | deepseek-chat | • 开源模型 • 推理能力强 | 代码生成、逻辑推理 |
配置步骤
1. 安装模型供应商插件
步骤 1:进入 Dify 市场
- 登录 Dify 工作台
- 单击左侧导航栏的 "插件"
- 选择 "模型" 标签
步骤 2:安装通义千问插件
- 在搜索框输入 "通义千问" 或 "Qwen"
- 找到 通义千问 插件(由 Dify 官方维护)
- 单击 "安装" 按钮
- 选择 最新版本(或稳定版本)
重要提示
- 通义千问插件由 Dify 官方维护,非阿里云/海鲸AI提供
- 如果最新版插件报错,可尝试安装 较早版本(如 v0.0.40)
- 使用海鲸AI提供的 DeepSeek 模型也需安装通义千问插件
插件版本选择建议
最新版(推荐)
- ✅ 功能最全
- ✅ 支持最新模型
- ⚠️ 可能不稳定
稳定版(v0.0.40-v0.0.41)
- ✅ 稳定性好
- ✅ 兼容性强
- ⚠️ 功能较少
注意事项
- v0.0.41 版本会校验
qwen-turbo权限 - 建议使用默认业务空间的 API Key
- 避免使用子业务空间的 API Key
2. 配置 API Key
步骤 1:进入设置页面
- 单击页面右上角的 头像
- 选择 "设置"
- 找到 "模型供应商" 栏目
步骤 2:配置通义千问
找到 通义千问 卡片,单击进入配置:
API Key: sk-xxxxxxxxxxxxxxxx
使用国际端点: 否API Key: sk-intl-xxxxxxxxxxxxxxxx
使用国际端点: 是步骤 3:保存配置
单击 "保存" 按钮完成配置。
常见错误
错误信息:Invalid API-key provided
可能原因:
- API Key 格式错误或已过期
- 使用了子业务空间的 API Key
- "使用国际端点"设置不正确
- 插件版本不兼容
解决方案:
- ✅ 检查 API Key 是否正确
- ✅ 确认 API Key 地域与端点设置匹配
- ✅ 尝试安装较早版本的插件(v0.0.40)
- ✅ 使用默认业务空间的 API Key
3. 选择启用模型
步骤 1:打开模型列表
在通义千问卡片中,单击 "显示模型"。
步骤 2:启用所需模型
打开您需要使用的模型开关:
推荐启用的模型:
| 模型 | 用途 | 是否启用 |
|---|---|---|
qwen-plus-latest | 日常对话、思考模式 | ✅ 推荐 |
qwen-max | 复杂任务、长文本 | ✅ 推荐 |
qwen-turbo | 快速响应、成本优先 | ✅ 推荐 |
qwen-vl-plus | 图像理解 | 根据需要 |
qvq-72b-preview | 视觉推理 | 根据需要 |
deepseek-chat | 代码生成 | 根据需要 |
找不到最新模型?
如果插件内暂未包含最新的通义千问模型,可以通过 OpenAI-API-compatible 插件配置:
- 安装 OpenAI-API-compatible 插件
- 配置参数:
- API Endpoint URL:
https://api.your-domain.com/compatible-mode/v1 - API Key: 您的海鲸AI API Key
- Model Name: 具体的模型名称(如
qwen3-max)
- API Endpoint URL:
这样可以使用所有海鲸AI支持的模型。
使用指南
场景一:创建聊天助手
聊天助手是最基础的应用类型,适合快速体验。
1. 创建应用
- 在工作室单击 "创建空白应用"
- 选择 "聊天助手" 类型
- 输入应用名称(如"智能客服")
- 单击 "创建"
2. 选择模型
在应用页面右上角:
- 单击 "模型" 下拉框
- 选择 "通义千问"
- 选择具体模型(如
qwen-plus-latest)
3. 配置思考模式(可选)
如果使用支持思考的模型:
- 在模型配置中找到 "思考模式" 选项
- 设置为 "True" 开启
- 保存配置
4. 测试对话
在右侧对话框输入:
你是谁?预期效果:
- 开启思考模式:会显示模型的思考过程
- 关闭思考模式:直接给出答案
支持思考模式的模型
qwen-plus-latest(Qwen3)qwen-maxqwen3-235b-a22bqvq-72b-preview
场景二:创建 Agent
Agent 可以自主调用工具,完成复杂任务。
1. 创建 Agent 应用
- 在工作室单击 "创建空白应用"
- 选择 "Agent" 类型
- 配置 Agent 名称和描述
2. 添加工具
Agent 的核心是工具调用能力:
内置工具:
- 🌐 网页搜索 - 获取实时信息
- 📄 文档解析 - 读取 PDF、Word 等
- 🔢 计算器 - 数学计算
- 📧 邮件发送 - 自动发邮件
自定义工具:
- HTTP API 调用
- 数据库查询
- 自定义 Python 代码
3. 示例:网页搜索 Agent
用户提问:2024年诺贝尔物理学奖获得者是谁?
Agent 执行流程:
1. 🔍 调用网页搜索工具
2. 📊 分析搜索结果
3. ✍️ 生成结构化回答
Agent 回答:
2024年诺贝尔物理学奖授予了约翰·霍普菲尔德(John J. Hopfield)
和杰弗里·辛顿(Geoffrey E. Hinton),以表彰他们在人工神经网络
方面的开创性工作...场景三:构建工作流
工作流适合复杂的自动化任务。
1. 创建工作流
- 单击 "创建空白应用"
- 选择 "工作流" 类型
- 进入可视化编辑器
2. 工作流节点类型
| 节点类型 | 功能 | 使用场景 |
|---|---|---|
| 开始 | 接收输入 | 必需节点 |
| LLM | 调用大模型 | 文本生成、分析 |
| HTTP | 调用 API | 获取外部数据 |
| 代码 | 执行 Python | 数据处理、计算 |
| 条件分支 | 逻辑判断 | 流程控制 |
| 循环 | 重复执行 | 批量处理 |
| 结束 | 输出结果 | 必需节点 |
3. 示例:文生图工作流
我们提供了现成的模板,您可以直接使用。
步骤 1:下载模板
步骤 2:导入工作流
- 在工作室单击 "导入 DSL 文件"
- 选择下载的模板文件
- 单击 "导入"
步骤 3:配置 API Key
- 找到 环境变量 图标(⚙️)
- 将
DASHSCOPE_API_KEY的值修改为您的 API Key - 保存配置
步骤 4:测试生成
- 在输入框输入描述,如:"一只可爱的小猫"
- 单击 "运行" 按钮
- 等待生成完成
注意事项
- 文生图:约需 5-30 秒
- 文生视频:约需 5-10 分钟
- 视频生成会返回 URL,需要下载查看
- 模板默认使用
wanx2.1-t2i-turbo模型
步骤 5:发布为工具(可选)
如需在其他应用中使用:
- 单击右上角 "发布"
- 选择 "发布为工具"
- 设置工具名称和描述
- 完成发布
场景四:构建知识库
知识库基于 RAG 技术,实现基于文档的精准问答。
1. 创建知识库
- 单击左侧导航 "知识库"
- 单击 "创建知识库"
- 输入知识库名称
- 选择 Embedding 模型
推荐 Embedding 模型:
| 模型 | 维度 | 特点 | 适用场景 |
|---|---|---|---|
text-embedding-3-small | 1536 | 速度快、成本低 | 一般文档 |
text-embedding-3-large | 3072 | 精度高 | 精准检索 |
text-embedding-ada-002 | 1536 | OpenAI经典 | 兼容性好 |
2. 上传文档
支持的文档格式:
- 📄 文本文件:TXT、MD、CSV
- 📝 办公文档:PDF、Word、Excel、PPT
- 🌐 网页内容:HTML、URL
- 💬 对话记录:JSON
上传步骤:
- 单击 "上传文档"
- 选择文件或拖拽上传
- 设置分块策略:
- 自动分块(推荐)
- 自定义分块大小(500-1000 字符)
- 等待向量化完成
3. 创建知识库应用
- 创建新的 "聊天助手" 应用
- 在 "上下文" 中添加知识库
- 配置检索参数:
- Top K:检索数量(建议 3-5)
- Score 阈值:相似度阈值(建议 0.7)
- 测试问答效果
4. 示例对话
👤 用户:Dify 支持哪些部署方式?
🤖 AI(基于知识库):
根据文档说明,Dify 支持两种部署方式:
1. **云服务版**
- 无需部署,开箱即用
- 适合快速体验和小型项目
- 限制:免费版最多5个应用
2. **私有部署版**
- 完全控制,无限制
- 适合企业应用和数据安全需求
- 支持 Docker、Kubernetes 等
更多信息请参考文档第 42 页。场景五:视觉模型使用
Dify 支持使用视觉模型分析图像。
1. 选择视觉模型
支持的模型:
- Qwen-VL Plus -
qwen-vl-plus(通用视觉理解) - QVQ -
qvq-72b-preview(视觉推理) - GPT-4V -
gpt-4-vision-preview(OpenAI)
2. 开启视觉功能
- 在聊天助手中选择视觉模型
- 界面左侧会出现 "视觉" 开关
- 打开开关
3. 上传图片提问
- 单击右侧对话框的 📎 图片 按钮
- 上传图片(支持 JPG、PNG、WebP)
- 输入问题
示例对话:
👤 用户:[上传一张产品图片] 这个产品有什么特点?
🤖 AI(Qwen-VL Plus):
根据图片分析,这是一款智能手表,主要特点:
1. **外观设计**
- 圆形表盘,金属材质
- 运动风格,适合日常佩戴
2. **功能特性**
- 触摸屏显示
- 运动数据追踪
- 心率监测功能
3. **适用人群**
- 运动爱好者
- 健康管理需求者高级功能
1. 使用 HTTP 节点调用模型
某些模型(如 Qwen-Omni、Qwen-Audio、Qwen-OCR)无法直接在 Dify 中配置,需要通过 HTTP 节点接入。
配置步骤
步骤 1:创建工作流
在工作流中添加 HTTP 请求节点。
步骤 2:配置请求参数
{
"url": "https://api.your-domain.com/v1/audio/transcriptions",
"method": "POST",
"headers": {
"Authorization": "Bearer sk-xxxxxxxxxxxxxxxx",
"Content-Type": "application/json"
},
"body": {
"model": "qwen-audio-turbo",
"audio": "{{audio_base64}}",
"prompt": "请转写这段音频"
}
}{
"url": "https://api.your-domain.com/v1/ocr",
"method": "POST",
"headers": {
"Authorization": "Bearer sk-xxxxxxxxxxxxxxxx",
"Content-Type": "application/json"
},
"body": {
"model": "qwen-ocr",
"image": "{{image_url}}",
"task": "ocr"
}
}步骤 3:处理响应
添加 代码节点解析 HTTP 响应:
import json
def main(response):
data = json.loads(response)
result = data.get('result', '')
return {
"output": result
}流式输出建议
为降低 HTTP 节点的超时风险,建议使用流式输出方式调用 API。
在请求体中添加:
{
"stream": true
}2. API 发布
将应用发布为 API 接口,供外部调用。
发布步骤
- 在应用页面单击右上角 "发布"
- 选择 "发布为 API"
- 配置 API 参数:
- API 名称
- 访问权限
- 速率限制
- 获取 API Key 和接口文档
API 调用示例
curl -X POST https://api.dify.ai/v1/chat-messages \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"inputs": {},
"query": "你好",
"response_mode": "streaming",
"user": "user123"
}'3. Webhook 集成
通过 Webhook 将 Dify 应用集成到其他系统。
支持的平台:
- 钉钉机器人
- 企业微信
- Slack
- Discord
- 自定义 Webhook
常见问题
Q1:配置 API Key 时报错怎么办?
错误信息:Invalid API-key provided
常见原因和解决方案:
原因1:插件版本不稳定
解决方案:
- ✅ 卸载当前插件
- ✅ 安装 较低版本(如 v0.0.40)
- ✅ 重新配置 API Key
原因2:使用了子业务空间的 API Key
背景说明:
- v0.0.41 版本的通义千问插件会校验
qwen-turbo模型调用权限 - 子业务空间可能没有该模型权限
解决方案:
- ✅ 使用 默认业务空间的 API Key
- ✅ 或为
qwen-turbo添加模型调用权限 - ✅ 或降级到 v0.0.40 版本
原因3:端点设置错误
解决方案:
- ✅ 使用中国大陆 API Key → 设置"使用国际端点"为 否
- ✅ 使用国际版 API Key → 设置"使用国际端点"为 是
Q2:如何使用 Qwen-Omni/Qwen-Audio/Qwen-OCR 模型?
这些模型不支持直接在 Dify 中配置。
解决方案:
通过 Chatflow 或 工作流的 HTTP 节点接入。
参考文档:
关键点:
- ✅ 使用 HTTP 节点调用 API
- ✅ 建议使用流式输出降低超时风险
- ✅ 添加错误处理逻辑
详见 使用 HTTP 节点调用模型 章节。
Q3:如何使用通义万相模型?
Dify 没有提供通义万相的官方插件。
解决方案:
使用我们提供的 工作流模板。
步骤总结:
详见 场景三:构建工作流 - 文生图示例 章节。
注意事项:
- 文生视频时间较长(5分钟以上)
- 默认使用
wanx2.1-t2i-turbo和wanx2.1-t2v-turbo - 可在工作流节点中修改模型
Q4:如何私有化部署 Dify?
Dify 云服务有诸多限制(如最多5个应用),企业应用建议私有部署。
部署方式
| 方式 | 难度 | 适用场景 |
|---|---|---|
| Docker Compose | ⭐⭐ | 单机部署、快速测试 |
| Kubernetes | ⭐⭐⭐⭐ | 生产环境、高可用 |
| 阿里云方案 | ⭐⭐⭐ | 企业级、一键部署 |
Docker Compose 部署(推荐)
步骤 1:准备环境
# 安装 Docker 和 Docker Compose
curl -fsSL https://get.docker.com | sh步骤 2:下载配置
git clone https://github.com/langgenius/dify.git
cd dify/docker步骤 3:配置环境变量
编辑 .env 文件:
# 数据库配置
POSTGRES_PASSWORD=your_password
REDIS_PASSWORD=your_password
# 应用配置
SECRET_KEY=your_secret_key
API_URL=http://your-domain.com
CONSOLE_URL=http://your-domain.com/console
# 模型配置(可选)
# OPENAI_API_KEY=sk-xxx步骤 4:启动服务
docker-compose up -d步骤 5:访问应用
打开浏览器访问:http://localhost
阿里云部署方案
阿里云提供了一键部署方案:
- 访问 阿里云 Dify 解决方案
- 单击 "一键部署"
- 配置 ECS、RDS、Redis 等资源
- 等待部署完成
优势:
- ✅ 自动配置高可用
- ✅ 集成监控告警
- ✅ 技术支持
- ✅ 数据安全
Q5:如何优化 Token 消耗?
优化策略
1. 模型选择
- 简单任务使用
qwen-turbo(成本低) - 复杂任务使用
qwen-plus或qwen-max
2. Prompt 优化
- 精简 System Prompt
- 减少不必要的示例
- 使用变量替代重复文本
3. 知识库优化
- 调整 Top K 值(减少检索数量)
- 提高 Score 阈值(过滤低相关文档)
- 优化文档分块大小
4. 工作流优化
- 减少不必要的 LLM 节点
- 使用条件分支避免重复调用
- 缓存常用结果
5. 对话历史管理
- 限制历史轮数(建议 5-10 轮)
- 定期清理无关对话
- 使用摘要功能压缩历史
最佳实践
1. Prompt 设计技巧
结构化 Prompt
推荐格式:
## 角色
你是一个[具体角色],擅长[具体能力]。
## 任务
请根据用户输入,完成以下任务:
1. [任务1]
2. [任务2]
## 要求
- [要求1]
- [要求2]
## 输出格式
[期望的输出格式]示例 Prompt
客服机器人:
## 角色
你是海鲸AI的客服助手,专业、友好、高效。
## 任务
1. 理解用户问题
2. 提供准确的解决方案
3. 必要时引导用户查看文档
## 要求
- 回复简洁明了,不超过200字
- 使用友好的语气
- 涉及技术问题时提供文档链接
## 输出格式
使用Markdown格式,包含:
- 问题确认
- 解决方案
- 相关链接(如有)2. 工作流设计原则
模块化设计
- 每个节点职责单一
- 使用子工作流封装复杂逻辑
- 便于复用和维护
错误处理
- 添加异常处理节点
- 设置超时和重试机制
- 记录错误日志
性能优化
- 减少不必要的 LLM 调用
- 使用缓存机制
- 并行处理独立任务
3. 知识库管理
文档规范
- 统一格式和结构
- 添加元数据(标题、标签、日期)
- 定期更新过期内容
分块策略
- 按语义分块,保持完整性
- 块大小:500-1000 字符
- 块重叠:50-100 字符
向量化优化
- 选择合适的 Embedding 模型
- 定期重建索引
- 监控检索质量
4. 安全建议
安全提示
- 🔒 不要在 Prompt 中硬编码敏感信息
- 🔒 使用环境变量存储 API Key
- 🔒 定期轮换密钥
- 🔒 设置 API 访问控制
- 🔒 监控异常调用
- 🔒 私有部署版本及时更新
相关资源
推荐阅读
其他开发工具对比
| 工具 | 类型 | 核心特色 | 适用场景 | 文档链接 |
|---|---|---|---|---|
| Dify | 低代码平台 | 可视化、多应用类型 | AI应用开发、企业应用 | 本文档 |
| Cline | VSCode插件 | Plan/Act模式、自动化 | 代码开发、项目管理 | 查看 |
| Claude Code | 命令行 | 对话式编程 | 脚本开发、终端用户 | 查看 |
| Cherry Studio | 桌面应用 | MCP集成、知识库 | 高级用户、研究 | 查看 |
| Chatbox | 全平台 | 简单易用 | 快速对话、普通用户 | 查看 |
技术支持
| 支持渠道 | 响应时间 | 联系方式 |
|---|---|---|
| 📖 文档中心 | 即时 | 查看文档 |
| 💬 在线客服 | 工作日 9:00-18:00 | 联系客服 |
| 📧 邮件支持 | 24小时内 | support@atalk-ai.com |
| 🐛 问题反馈 | 48小时内 | 提交反馈 |
外部资源
进阶教程
1. 自定义插件开发
Dify 支持开发自定义插件扩展功能。
插件类型:
- 模型供应商
- 工具节点
- 数据源连接器
开发指南:
- 访问 Dify 插件文档
- 克隆插件模板
- 实现接口方法
- 本地测试
- 发布到市场
2. 多语言支持
构建多语言 AI 应用:
方法一:多个应用
- 为每种语言创建独立应用
- 根据用户语言切换应用
方法二:动态 Prompt
- 使用变量检测用户语言
- 动态生成对应语言的 Prompt
方法三:翻译节点
- 添加翻译 API 节点
- 统一使用一种语言处理
- 最后翻译回用户语言
3. 数据分析应用
使用 Dify 构建数据分析应用:
步骤:
- 通过 HTTP 节点连接数据库
- 使用代码节点处理数据
- LLM 节点生成分析报告
- 可视化展示结果
示例场景:
- 销售数据分析
- 用户行为分析
- 财务报表生成
更新日志
2025-11-27
- ✨ 新增海鲸AI接入完整教程
- 📝 完善多种应用场景示例
- 🔧 优化配置步骤说明
- 📖 增加最佳实践章节
- 🐛 修复常见问题解答
2025-10-15
- 🎉 初始版本发布
社区贡献
反馈建议
欢迎提供文档改进建议:
- 访问问题反馈页面
- 描述您的建议或遇到的问题
- 我们会及时审核并改进
分享案例
如果您使用 Dify + 海鲸AI 构建了优秀应用:
- 📧 发送邮件至 support@atalk-ai.com
- 📝 包含应用介绍和截图
- 🎁 优秀案例将获得推广机会和奖励