digmouse’s Ai journey

  • DeepSeek Agent
  • deepseek application
Ai无处不在
专注Ai Agent产品设计开发
  1. 首页
  2. MCP
  3. 正文

与大模型API和MCP(上线问协议)交互的差异

20 2 月, 2025 278点热度 0人点赞

API和MCP

调用大模型API
调用API是指通过应用程序接口(API)向大型语言模型(如deepseek)发送请求并接收响应的方式。用户提供输入数据,API将请求转发给模型,模型处理后返回结果。这种方式简单直接。

MCP(上下文协议)
MCP(Context Protocol)是一种开放协议,旨在通过标准化接口实现大模型与外部数据源或工具的动态集成。它允许模型在运行时访问外部资源(如本地文件、数据库或第三方服务),无需调整模型内部参数,从而扩展模型的上下文处理能力。

流程图比对

可以一目了然两者的差异性

graph TD
    subgraph MCP流程
        A[用户请求] --> B[MCP服务]
        B --> C{模型选择与调度}
        C --> D[模型实例1]
        C --> E[模型实例2]
        C --> F[模型实例N]
        D --> G[返回结果]
        E --> G
        F --> G
        G --> H[用户]
    end

    subgraph 调用大模型API流程
        I[用户请求] --> J[API Gateway]
        J --> K{固定模型}
        K --> L[大模型API]
        L --> M[返回结果]
        M --> N[用户]
    end

    style A fill:#f9f,stroke:#333,stroke-width:2px
    style I fill:#f9f,stroke:#333,stroke-width:2px
    style H fill:#bbf,stroke:#333,stroke-width:2px
    style N fill:#bbf,stroke:#333,stroke-width:2px

两者的差异性

特性MCP 流程调用大模型 API 流程
模型调度动态调度多个模型实例固定调用单一模型
灵活性高,支持扩展和负载均衡低,直接调用固定 API
适用场景大规模部署,多模型实例管理小规模场景,单一模型调用
复杂性较高,需要管理调度逻辑较低,直接调用 API
性能优化支持负载均衡和资源优化依赖单一模型的性能

MCP和API本地数据读取对比

维度调用大模型APIMCP(上下文协议)结论
本地读取机制用户程序读取本地数据,转换为prompt后通过HTTP上传MCP服务器直接访问本地文件系统或数据库,按需提供给模型MCP更直接,减少用户端预处理
流程步骤1. 本地读取 2. 数据打包 3. 上传请求 4. 模型处理1. 用户命令 2. MCP服务器读取 3. 数据传模型 4. 模型处理API流程简单,MCP更动态
数据量影响小数据量(<1MB):读取快,上传延迟低 大数据量(>10MB):网络瓶颈严重小数据量:读取快,协议略有开销 大数据量:直接读取,避免网络传输小数据:API略快 大数据:MCP快
模型位置影响远程模型:需上传数据,网络延迟大 本地模型:不适用远程模型:仍需传输,但可优化 本地模型:无需网络传输,效率最高本地模型下MCP完胜
读取频率一次性读取:简单高效 频繁读取:需反复上传,效率低一次性读取:效率高 频繁读取:按需动态访问,效率更高频繁读取MCP占优
效率瓶颈网络传输和数据预处理协议通信和服务器I/O性能MCP瓶颈更可控
示例效率100KB文件:读取<1ms,上传50ms,总约60ms 1GB数据:上传极慢100KB文件:读取<1ms,通信5ms,总约10ms 1GB数据:读取1s,处理快小数据相近,大数据MCP更快
总体速度小数据量或简单任务更快,但受网络限制大数据量或本地模型场景更快,支持动态读取取决于任务需求

支持MCP的模型

模型名称开发公司类型MCP支持方式部署类型备注
ClaudeAnthropic通用型LLM原生支持,通过Claude Desktop集成MCP云端Anthropic推出MCP,Claude为其主要展示模型,支持本地和远程数据源访问
Replit Code V1.5 3BReplit代码专用型LLM通过Replit平台集成MCP云端专注于代码生成,MCP增强其上下文相关建议能力
Llama(潜在支持)Meta AI通用型LLM通过第三方工具(如Ollama)实验性支持MCP本地/云端未原生支持,社区尝试通过桥接实现MCP功能,尚处实验阶段
Mistral(潜在支持)Mistral AI通用型LLM通过第三方客户端(如Continue)潜在支持MCP本地/云端未明确官方支持,依赖社区工具实现,效果未广泛验证
标签: 上下文协议 大模型mcp
最后更新:20 2 月, 2025

digmouse

这个人很懒,什么都没留下

点赞

文章评论

razz evil exclaim smile redface biggrin eek confused idea lol mad twisted rolleyes wink cool arrow neutral cry mrgreen drooling persevering
取消回复

Archives

  • 2025 年 5 月
  • 2025 年 4 月
  • 2025 年 3 月
  • 2025 年 2 月
  • 2025 年 1 月

Categories

  • Ai Agent
  • Ai本地知识库
  • Ai资源
  • llamaindex
  • LLM
  • MCP
  • python
  • rerank model
  • Uncategorized

COPYRIGHT © 2025 digmouse’s Ai journey. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang