Skip to content
登录/注册

Dify 接入教程

低代码平台可视化开发更新时间:2025-11-27

产品简介

Dify 是一个开源的大模型应用开发平台,让您无需编写代码即可构建强大的 AI 应用。通过海鲸AI的模型支持,您可以快速打造各类智能应用。

核心功能

  • 🎨 可视化开发 - 拖拽式界面,无需编程
  • 🤖 多种应用类型 - 聊天助手、Agent、工作流、知识库
  • 🔧 丰富的节点 - HTTP、数据库、代码执行等
  • 📚 RAG 知识库 - 基于文档的精准问答
  • 🔌 插件生态 - 海量插件,功能可扩展
  • 🌐 API 发布 - 一键生成 API 接口
  • 🎯 多模态支持 - 文本、图像、音频、视频

Dify 应用类型

应用类型说明适用场景技术难度
聊天助手对话式交互客服机器人、问答助手
Agent自主调用工具智能助理、任务自动化⭐⭐⭐
Chatflow可视化对话流程复杂对话场景⭐⭐
工作流自动化流程数据处理、批量任务⭐⭐⭐
知识库基于文档问答企业知识管理、文档检索⭐⭐

为什么选择 Dify + 海鲸AI?

优势组合

  • 🚀 快速开发:Dify 可视化 + 海鲸AI 强大模型
  • 💰 成本优化:按需付费,灵活选择模型
  • 🎯 多模型支持:通义千问、DeepSeek、GPT等
  • 🔒 私有部署:支持本地部署,数据安全
  • 🌟 开源免费:Dify 核心功能完全开源

前置准备

1. 注册 Dify 账号

部署方式说明推荐场景
Dify 云服务无需部署,开箱即用快速体验、小型项目
私有部署完全控制,无限制企业应用、数据安全

Dify 云服务(推荐新手)

  1. 访问 Dify 官网
  2. 点击 "免费开始"
  3. 使用 GitHub/Google 账号注册
  4. 进入工作台

云服务限制

  • 免费版最多创建 5 个应用
  • 每月有调用量限制
  • 企业应用建议私有部署

2. 获取海鲸AI API Key

  1. 访问 海鲸AI控制台
  2. 注册并登录账户
  3. API 管理页面生成 API Key
  4. 确保账户余额充足

新用户福利

  • 🎁 新注册用户可获得免费额度
  • 💰 可用于所有模型推理服务

3. 选择合适的模型

海鲸AI通过 Dify 支持以下模型:

推荐模型列表

模型系列模型名称特点适用场景
通义千问 Plusqwen-plus-latest• 性能强
• 支持思考模式
聊天助手、Agent
通义千问 Maxqwen-max• 最强性能
• 长上下文
复杂任务、知识库
通义千问 Turboqwen-turbo• 响应快
• 成本低
简单对话、批量处理
通义千问 VLqwen-vl-plus• 视觉理解
• 多模态
图像分析、OCR
QVQqvq-72b-preview• 视觉推理
• 深度分析
视觉问答、场景理解
DeepSeekdeepseek-chat• 开源模型
• 推理能力强
代码生成、逻辑推理

配置步骤

1. 安装模型供应商插件

步骤 1:进入 Dify 市场

  1. 登录 Dify 工作台
  2. 单击左侧导航栏的 "插件"
  3. 选择 "模型" 标签

步骤 2:安装通义千问插件

  1. 在搜索框输入 "通义千问""Qwen"
  2. 找到 通义千问 插件(由 Dify 官方维护)
  3. 单击 "安装" 按钮
  4. 选择 最新版本(或稳定版本)

重要提示

  • 通义千问插件由 Dify 官方维护,非阿里云/海鲸AI提供
  • 如果最新版插件报错,可尝试安装 较早版本(如 v0.0.40)
  • 使用海鲸AI提供的 DeepSeek 模型也需安装通义千问插件
插件版本选择建议

最新版(推荐)

  • ✅ 功能最全
  • ✅ 支持最新模型
  • ⚠️ 可能不稳定

稳定版(v0.0.40-v0.0.41)

  • ✅ 稳定性好
  • ✅ 兼容性强
  • ⚠️ 功能较少

注意事项

  • v0.0.41 版本会校验 qwen-turbo 权限
  • 建议使用默认业务空间的 API Key
  • 避免使用子业务空间的 API Key

2. 配置 API Key

步骤 1:进入设置页面

  1. 单击页面右上角的 头像
  2. 选择 "设置"
  3. 找到 "模型供应商" 栏目

步骤 2:配置通义千问

找到 通义千问 卡片,单击进入配置:

text
API Key: sk-xxxxxxxxxxxxxxxx
使用国际端点: 否
text
API Key: sk-intl-xxxxxxxxxxxxxxxx
使用国际端点: 是

步骤 3:保存配置

单击 "保存" 按钮完成配置。

常见错误

错误信息Invalid API-key provided

可能原因

  1. API Key 格式错误或已过期
  2. 使用了子业务空间的 API Key
  3. "使用国际端点"设置不正确
  4. 插件版本不兼容

解决方案

  • ✅ 检查 API Key 是否正确
  • ✅ 确认 API Key 地域与端点设置匹配
  • ✅ 尝试安装较早版本的插件(v0.0.40)
  • ✅ 使用默认业务空间的 API Key

3. 选择启用模型

步骤 1:打开模型列表

在通义千问卡片中,单击 "显示模型"

步骤 2:启用所需模型

打开您需要使用的模型开关:

推荐启用的模型

模型用途是否启用
qwen-plus-latest日常对话、思考模式✅ 推荐
qwen-max复杂任务、长文本✅ 推荐
qwen-turbo快速响应、成本优先✅ 推荐
qwen-vl-plus图像理解根据需要
qvq-72b-preview视觉推理根据需要
deepseek-chat代码生成根据需要

找不到最新模型?

如果插件内暂未包含最新的通义千问模型,可以通过 OpenAI-API-compatible 插件配置:

  1. 安装 OpenAI-API-compatible 插件
  2. 配置参数:
    • API Endpoint URL: https://api.your-domain.com/compatible-mode/v1
    • API Key: 您的海鲸AI API Key
    • Model Name: 具体的模型名称(如 qwen3-max

这样可以使用所有海鲸AI支持的模型。


使用指南

场景一:创建聊天助手

聊天助手是最基础的应用类型,适合快速体验。

1. 创建应用

  1. 在工作室单击 "创建空白应用"
  2. 选择 "聊天助手" 类型
  3. 输入应用名称(如"智能客服")
  4. 单击 "创建"

2. 选择模型

在应用页面右上角:

  1. 单击 "模型" 下拉框
  2. 选择 "通义千问"
  3. 选择具体模型(如 qwen-plus-latest

3. 配置思考模式(可选)

如果使用支持思考的模型:

  1. 在模型配置中找到 "思考模式" 选项
  2. 设置为 "True" 开启
  3. 保存配置

4. 测试对话

在右侧对话框输入:

你是谁?

预期效果

  • 开启思考模式:会显示模型的思考过程
  • 关闭思考模式:直接给出答案

支持思考模式的模型

  • qwen-plus-latest (Qwen3)
  • qwen-max
  • qwen3-235b-a22b
  • qvq-72b-preview

场景二:创建 Agent

Agent 可以自主调用工具,完成复杂任务。

1. 创建 Agent 应用

  1. 在工作室单击 "创建空白应用"
  2. 选择 "Agent" 类型
  3. 配置 Agent 名称和描述

2. 添加工具

Agent 的核心是工具调用能力:

内置工具

  • 🌐 网页搜索 - 获取实时信息
  • 📄 文档解析 - 读取 PDF、Word 等
  • 🔢 计算器 - 数学计算
  • 📧 邮件发送 - 自动发邮件

自定义工具

  • HTTP API 调用
  • 数据库查询
  • 自定义 Python 代码

3. 示例:网页搜索 Agent

markdown
用户提问:2024年诺贝尔物理学奖获得者是谁?

Agent 执行流程:

1. 🔍 调用网页搜索工具
2. 📊 分析搜索结果
3. ✍️ 生成结构化回答

Agent 回答:
2024年诺贝尔物理学奖授予了约翰·霍普菲尔德(John J. Hopfield)
和杰弗里·辛顿(Geoffrey E. Hinton),以表彰他们在人工神经网络
方面的开创性工作...

场景三:构建工作流

工作流适合复杂的自动化任务。

1. 创建工作流

  1. 单击 "创建空白应用"
  2. 选择 "工作流" 类型
  3. 进入可视化编辑器

2. 工作流节点类型

节点类型功能使用场景
开始接收输入必需节点
LLM调用大模型文本生成、分析
HTTP调用 API获取外部数据
代码执行 Python数据处理、计算
条件分支逻辑判断流程控制
循环重复执行批量处理
结束输出结果必需节点

3. 示例:文生图工作流

我们提供了现成的模板,您可以直接使用。

步骤 1:下载模板

步骤 2:导入工作流

  1. 在工作室单击 "导入 DSL 文件"
  2. 选择下载的模板文件
  3. 单击 "导入"

步骤 3:配置 API Key

  1. 找到 环境变量 图标(⚙️)
  2. DASHSCOPE_API_KEY 的值修改为您的 API Key
  3. 保存配置

步骤 4:测试生成

  1. 在输入框输入描述,如:"一只可爱的小猫"
  2. 单击 "运行" 按钮
  3. 等待生成完成

注意事项

  • 文生图:约需 5-30 秒
  • 文生视频:约需 5-10 分钟
  • 视频生成会返回 URL,需要下载查看
  • 模板默认使用 wanx2.1-t2i-turbo 模型

步骤 5:发布为工具(可选)

如需在其他应用中使用:

  1. 单击右上角 "发布"
  2. 选择 "发布为工具"
  3. 设置工具名称和描述
  4. 完成发布

场景四:构建知识库

知识库基于 RAG 技术,实现基于文档的精准问答。

1. 创建知识库

  1. 单击左侧导航 "知识库"
  2. 单击 "创建知识库"
  3. 输入知识库名称
  4. 选择 Embedding 模型

推荐 Embedding 模型

模型维度特点适用场景
text-embedding-3-small1536速度快、成本低一般文档
text-embedding-3-large3072精度高精准检索
text-embedding-ada-0021536OpenAI经典兼容性好

2. 上传文档

支持的文档格式:

  • 📄 文本文件:TXT、MD、CSV
  • 📝 办公文档:PDF、Word、Excel、PPT
  • 🌐 网页内容:HTML、URL
  • 💬 对话记录:JSON

上传步骤

  1. 单击 "上传文档"
  2. 选择文件或拖拽上传
  3. 设置分块策略:
    • 自动分块(推荐)
    • 自定义分块大小(500-1000 字符)
  4. 等待向量化完成

3. 创建知识库应用

  1. 创建新的 "聊天助手" 应用
  2. "上下文" 中添加知识库
  3. 配置检索参数:
    • Top K:检索数量(建议 3-5)
    • Score 阈值:相似度阈值(建议 0.7)
  4. 测试问答效果

4. 示例对话

markdown
👤 用户:Dify 支持哪些部署方式?

🤖 AI(基于知识库):
根据文档说明,Dify 支持两种部署方式:

1. **云服务版**
   - 无需部署,开箱即用
   - 适合快速体验和小型项目
   - 限制:免费版最多5个应用

2. **私有部署版**
   - 完全控制,无限制
   - 适合企业应用和数据安全需求
   - 支持 Docker、Kubernetes 等

更多信息请参考文档第 42 页。

场景五:视觉模型使用

Dify 支持使用视觉模型分析图像。

1. 选择视觉模型

支持的模型:

  • Qwen-VL Plus - qwen-vl-plus(通用视觉理解)
  • QVQ - qvq-72b-preview(视觉推理)
  • GPT-4V - gpt-4-vision-preview(OpenAI)

2. 开启视觉功能

  1. 在聊天助手中选择视觉模型
  2. 界面左侧会出现 "视觉" 开关
  3. 打开开关

3. 上传图片提问

  1. 单击右侧对话框的 📎 图片 按钮
  2. 上传图片(支持 JPG、PNG、WebP)
  3. 输入问题

示例对话

markdown
👤 用户:[上传一张产品图片] 这个产品有什么特点?

🤖 AI(Qwen-VL Plus):
根据图片分析,这是一款智能手表,主要特点:

1. **外观设计**
   - 圆形表盘,金属材质
   - 运动风格,适合日常佩戴

2. **功能特性**
   - 触摸屏显示
   - 运动数据追踪
   - 心率监测功能

3. **适用人群**
   - 运动爱好者
   - 健康管理需求者

高级功能

1. 使用 HTTP 节点调用模型

某些模型(如 Qwen-Omni、Qwen-Audio、Qwen-OCR)无法直接在 Dify 中配置,需要通过 HTTP 节点接入。

配置步骤

步骤 1:创建工作流

在工作流中添加 HTTP 请求节点。

步骤 2:配置请求参数

json
{
  "url": "https://api.your-domain.com/v1/audio/transcriptions",
  "method": "POST",
  "headers": {
    "Authorization": "Bearer sk-xxxxxxxxxxxxxxxx",
    "Content-Type": "application/json"
  },
  "body": {
    "model": "qwen-audio-turbo",
    "audio": "{{audio_base64}}",
    "prompt": "请转写这段音频"
  }
}
json
{
  "url": "https://api.your-domain.com/v1/ocr",
  "method": "POST",
  "headers": {
    "Authorization": "Bearer sk-xxxxxxxxxxxxxxxx",
    "Content-Type": "application/json"
  },
  "body": {
    "model": "qwen-ocr",
    "image": "{{image_url}}",
    "task": "ocr"
  }
}

步骤 3:处理响应

添加 代码节点解析 HTTP 响应:

python
import json

def main(response):
    data = json.loads(response)
    result = data.get('result', '')
    return {
        "output": result
    }

流式输出建议

为降低 HTTP 节点的超时风险,建议使用流式输出方式调用 API。

在请求体中添加:

json
{
  "stream": true
}

2. API 发布

将应用发布为 API 接口,供外部调用。

发布步骤

  1. 在应用页面单击右上角 "发布"
  2. 选择 "发布为 API"
  3. 配置 API 参数:
    • API 名称
    • 访问权限
    • 速率限制
  4. 获取 API Key 和接口文档

API 调用示例

bash
curl -X POST https://api.dify.ai/v1/chat-messages \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "inputs": {},
    "query": "你好",
    "response_mode": "streaming",
    "user": "user123"
  }'

3. Webhook 集成

通过 Webhook 将 Dify 应用集成到其他系统。

支持的平台

  • 钉钉机器人
  • 企业微信
  • Slack
  • Discord
  • 自定义 Webhook

常见问题

Q1:配置 API Key 时报错怎么办?

错误信息Invalid API-key provided

常见原因和解决方案

原因1:插件版本不稳定

解决方案

  • ✅ 卸载当前插件
  • ✅ 安装 较低版本(如 v0.0.40)
  • ✅ 重新配置 API Key

原因2:使用了子业务空间的 API Key

背景说明

  • v0.0.41 版本的通义千问插件会校验 qwen-turbo 模型调用权限
  • 子业务空间可能没有该模型权限

解决方案

  • ✅ 使用 默认业务空间的 API Key
  • ✅ 或为 qwen-turbo 添加模型调用权限
  • ✅ 或降级到 v0.0.40 版本

原因3:端点设置错误

解决方案

  • ✅ 使用中国大陆 API Key → 设置"使用国际端点"为
  • ✅ 使用国际版 API Key → 设置"使用国际端点"为

Q2:如何使用 Qwen-Omni/Qwen-Audio/Qwen-OCR 模型?

这些模型不支持直接在 Dify 中配置。

解决方案

通过 Chatflow工作流HTTP 节点接入。

参考文档

关键点

  • ✅ 使用 HTTP 节点调用 API
  • ✅ 建议使用流式输出降低超时风险
  • ✅ 添加错误处理逻辑

详见 使用 HTTP 节点调用模型 章节。


Q3:如何使用通义万相模型?

Dify 没有提供通义万相的官方插件。

解决方案

使用我们提供的 工作流模板

步骤总结

  1. 下载模板(文生图 / 文生视频
  2. 导入到 Dify
  3. 配置 DASHSCOPE_API_KEY 环境变量
  4. 运行测试
  5. (可选)发布为工具

详见 场景三:构建工作流 - 文生图示例 章节。

注意事项

  • 文生视频时间较长(5分钟以上)
  • 默认使用 wanx2.1-t2i-turbowanx2.1-t2v-turbo
  • 可在工作流节点中修改模型

Q4:如何私有化部署 Dify?

Dify 云服务有诸多限制(如最多5个应用),企业应用建议私有部署。

部署方式

方式难度适用场景
Docker Compose⭐⭐单机部署、快速测试
Kubernetes⭐⭐⭐⭐生产环境、高可用
阿里云方案⭐⭐⭐企业级、一键部署

Docker Compose 部署(推荐)

步骤 1:准备环境

bash
# 安装 Docker 和 Docker Compose
curl -fsSL https://get.docker.com | sh

步骤 2:下载配置

bash
git clone https://github.com/langgenius/dify.git
cd dify/docker

步骤 3:配置环境变量

编辑 .env 文件:

bash
# 数据库配置
POSTGRES_PASSWORD=your_password
REDIS_PASSWORD=your_password

# 应用配置
SECRET_KEY=your_secret_key
API_URL=http://your-domain.com
CONSOLE_URL=http://your-domain.com/console

# 模型配置(可选)
# OPENAI_API_KEY=sk-xxx

步骤 4:启动服务

bash
docker-compose up -d

步骤 5:访问应用

打开浏览器访问:http://localhost

阿里云部署方案

阿里云提供了一键部署方案:

  1. 访问 阿里云 Dify 解决方案
  2. 单击 "一键部署"
  3. 配置 ECS、RDS、Redis 等资源
  4. 等待部署完成

优势

  • ✅ 自动配置高可用
  • ✅ 集成监控告警
  • ✅ 技术支持
  • ✅ 数据安全

Q5:如何优化 Token 消耗?

优化策略

1. 模型选择

  • 简单任务使用 qwen-turbo(成本低)
  • 复杂任务使用 qwen-plusqwen-max

2. Prompt 优化

  • 精简 System Prompt
  • 减少不必要的示例
  • 使用变量替代重复文本

3. 知识库优化

  • 调整 Top K 值(减少检索数量)
  • 提高 Score 阈值(过滤低相关文档)
  • 优化文档分块大小

4. 工作流优化

  • 减少不必要的 LLM 节点
  • 使用条件分支避免重复调用
  • 缓存常用结果

5. 对话历史管理

  • 限制历史轮数(建议 5-10 轮)
  • 定期清理无关对话
  • 使用摘要功能压缩历史

最佳实践

1. Prompt 设计技巧

结构化 Prompt

推荐格式

## 角色
你是一个[具体角色],擅长[具体能力]。

## 任务
请根据用户输入,完成以下任务:
1. [任务1]
2. [任务2]

## 要求
- [要求1]
- [要求2]

## 输出格式
[期望的输出格式]

示例 Prompt

客服机器人

## 角色
你是海鲸AI的客服助手,专业、友好、高效。

## 任务
1. 理解用户问题
2. 提供准确的解决方案
3. 必要时引导用户查看文档

## 要求
- 回复简洁明了,不超过200字
- 使用友好的语气
- 涉及技术问题时提供文档链接

## 输出格式
使用Markdown格式,包含:
- 问题确认
- 解决方案
- 相关链接(如有)

2. 工作流设计原则

模块化设计

  • 每个节点职责单一
  • 使用子工作流封装复杂逻辑
  • 便于复用和维护

错误处理

  • 添加异常处理节点
  • 设置超时和重试机制
  • 记录错误日志

性能优化

  • 减少不必要的 LLM 调用
  • 使用缓存机制
  • 并行处理独立任务

3. 知识库管理

文档规范

  • 统一格式和结构
  • 添加元数据(标题、标签、日期)
  • 定期更新过期内容

分块策略

  • 按语义分块,保持完整性
  • 块大小:500-1000 字符
  • 块重叠:50-100 字符

向量化优化

  • 选择合适的 Embedding 模型
  • 定期重建索引
  • 监控检索质量

4. 安全建议

安全提示

  • 🔒 不要在 Prompt 中硬编码敏感信息
  • 🔒 使用环境变量存储 API Key
  • 🔒 定期轮换密钥
  • 🔒 设置 API 访问控制
  • 🔒 监控异常调用
  • 🔒 私有部署版本及时更新

推荐阅读

其他开发工具对比

工具类型核心特色适用场景文档链接
Dify低代码平台可视化、多应用类型AI应用开发、企业应用本文档
ClineVSCode插件Plan/Act模式、自动化代码开发、项目管理查看
Claude Code命令行对话式编程脚本开发、终端用户查看
Cherry Studio桌面应用MCP集成、知识库高级用户、研究查看
Chatbox全平台简单易用快速对话、普通用户查看

技术支持

支持渠道响应时间联系方式
📖 文档中心即时查看文档
💬 在线客服工作日 9:00-18:00联系客服
📧 邮件支持24小时内support@atalk-ai.com
🐛 问题反馈48小时内提交反馈

外部资源


进阶教程

1. 自定义插件开发

Dify 支持开发自定义插件扩展功能。

插件类型

  • 模型供应商
  • 工具节点
  • 数据源连接器

开发指南

  1. 访问 Dify 插件文档
  2. 克隆插件模板
  3. 实现接口方法
  4. 本地测试
  5. 发布到市场

2. 多语言支持

构建多语言 AI 应用:

方法一:多个应用

  • 为每种语言创建独立应用
  • 根据用户语言切换应用

方法二:动态 Prompt

  • 使用变量检测用户语言
  • 动态生成对应语言的 Prompt

方法三:翻译节点

  • 添加翻译 API 节点
  • 统一使用一种语言处理
  • 最后翻译回用户语言

3. 数据分析应用

使用 Dify 构建数据分析应用:

步骤

  1. 通过 HTTP 节点连接数据库
  2. 使用代码节点处理数据
  3. LLM 节点生成分析报告
  4. 可视化展示结果

示例场景

  • 销售数据分析
  • 用户行为分析
  • 财务报表生成

更新日志

2025-11-27

  • ✨ 新增海鲸AI接入完整教程
  • 📝 完善多种应用场景示例
  • 🔧 优化配置步骤说明
  • 📖 增加最佳实践章节
  • 🐛 修复常见问题解答

2025-10-15

  • 🎉 初始版本发布

社区贡献

反馈建议

欢迎提供文档改进建议:

  1. 访问问题反馈页面
  2. 描述您的建议或遇到的问题
  3. 我们会及时审核并改进

分享案例

如果您使用 Dify + 海鲸AI 构建了优秀应用:

  1. 📧 发送邮件至 support@atalk-ai.com
  2. 📝 包含应用介绍和截图
  3. 🎁 优秀案例将获得推广机会和奖励