Dify 生态再升级!一键发布 MCP 插件深度解析【开发者必看】
- sales78828
- 4天前
- 讀畢需時 3 分鐘
引言
伴随人工智能代理的快速演进,构建大型语言模型与外部应用间的标准化交互体系已成为行业核心挑战。在此背景下,Anthropic 公司于 2024 年末率先推出模型上下文协议(MCP),这一创新性开放标准如同人工智能领域的"通用接口",通过建立双向交互机制,使得大模型能够自主发现、解析并安全调用各类外部工具或 API 接口。

这项技术突破带来双重价值:开发端无需再为整合不同外部服务而开发复杂的定制化接口;应用端则让用户得以体验 AI 系统无缝调度海量第三方服务的能力——从日常办公流程处理到商业数据分析,再到营销自动化执行,人工智能技术正实现从"认知智能"到"行动智能"的跨越式进化。
今天我们将针对此带来更具突破性的 MCP Server 插件深度解析,让你的 Dify 应用摇身变为标准化 MCP 服务中枢。
一、核心价值解锁
通过三步实现应用服务化:
应用即工具:无论是简单流程还是复杂系统,都能通过统一的 MCP 工具,轻松对接 Cursor、Claude Desktop 等主流智能客户端;
专属访问通道:借助 Endpoint 功能生成唯一服务地址,打通外部调用的"任督二脉";
标准化服务引擎:内嵌 HTTP+SSE 双协议引擎,自动处理协议握手、能力发现等核心交互,让服务部署"零门槛"。
二、技术亮点透视
智能协议转换:原生支持 Server-Sent Events 实时通信;
多平台兼容:覆盖从 IDE 插件到桌面应用的完整生态;
服务自托管:在 Dify 插件环境中自主运行 HTTP 服务。
三、完整操作指南
下文将逐步演示从安装配置到服务调用的完整操作指南,揭秘企业级应用集成的捷径👇
第一步:插件闪电部署
进入 Dify 插件市场 → 搜索" mcp-server " → 点击【立即安装】,30秒完成服务引擎植入;

第二步:构建智能工作流(以 数据分析助手 为例)
→ 开始节点:创建 data 字符串变量接收原始数据
→ LLM 节点:配置 LLM 提示词(示例:"请将以下数据生成专业分析报告:{{data}}")

→ 结束节点:输出 LLM 生成的结果
第三步:快速配置 MCP Server 插件
设置 API 端点,主要填写端点名称、待发布的 APP、APP Type、App 输入参数四项。

Endpoint Name:Endpoint 名称,本示例为Data Analysis;
App:选择要发布为 MCP Server 的 Dify 应用,选择上面创建的 test-mcp(数据分析助手);
App Type:应用类型(Chat 或 Workflow),本示例为工作流;
App Input Schema:定义应用的输入参数,帮助外部系统理解与该应用的交互方式,格式为 JSON。
输入参数内容如下:

properties:列出应用接收的所有参数及其类型。本示例的参数只有一个,data;
description:用于向 MCP Client 说明此应用的主要功能,帮助系统在需要时自动发现并调用;
required:声明调用应用时必须提供的参数。对于聊天类应用(Agent / Chatflow),参数是通常是必需的;
保存配置后将会自动生成 Endpoint URL。我们后续用到的是 GET 后面的 URL 地址。

第四步:测试
在 Dify 中调用 MCP Server,设置授权,支持设置多个 MCP 服务

具体配置如下,url 替换为你发布的 Mcp Server 自动生成的 url 地址;

配置好后新建一个 Agent 可以测试一下,需要添加一下 MCP SSE 工具;

可以看到大模型的思考过程,根据提示词的要求先调用功能工具列表,查找可用的工具,然后再调用可用的工具回答问题。



通过上述实践可见,Mcp Server 插件通过标准化转换机制,可将 Dify 应用快速部署为符合规范的 MCP Server,实现内外系统客户端的无缝调用,显著提升应用的可扩展性与跨平台兼容性。尽管目前配置 App Input Schema 仍需通过 JSON 格式手动定义数据结构,操作流程存在一定复杂度,但较之从零开发接口服务已大幅降低技术门槛。
期待未来版本能进一步优化配置自动化能力,使服务发布流程更为简洁高效...
留言