MCP-Use:轻松连接LLM与MCP服务器,打造多功能智能代理

MCP-Use是一款开源客户端库,让LLM轻松连接到MCP服务器,实现网页浏览、文件操作等功能,操作简便,支持多种LLM和MCP服务器。

1AI工具LLM集成MCP服务器智能代理工具调用

MCP-Use项目地址

MCP-Use介绍

MCP(模型上下文协议)为LLM提供统一的工具和数据源接口,MCP-Use作为开源客户端库,通过自定义代理连接LLM到MCP服务器,构建智能代理。

操作简便,仅需6行代码即可创建MCP代理;支持HTTP连接;动态选择MCP服务器;支持多服务器使用;提供工具访问控制。

MCP-Use主要特点

🔄易于使用仅需6行代码创建MCP代理
🤖LLM灵活性支持OpenAI、Anthropic、Groq、LLama等LLM
🌐HTTP支持直接连接到HTTP端口上的MCP服务器
⚙️动态服务器选择自动选择最适合任务的MCP服务器
🧩多服务器支持单个代理使用多个MCP服务器
🛡️工具限制限制高危工具访问,提升安全性

MCP-Use快速启动

使用pip安装:

MCP‑Use:简化LLM与MCP服务器工具集成 可将任何 LLM 连接到任何 MCP 服务器

pip install mcp-use

或从源安装:

git clone https://github.com/pietrozullo/mcp-use.git cd mcp-use pip install -e .

安装LangChain提供程序

mcp_use通过LangChain与各种LLM提供程序兼容。根据所选LLM安装LangChain提供程序包,例如:

pip install langchain-openai # For OpenAI
pip install langchain-anthropic # For Anthropic
# For other providers, check the [LangChain chat models documentation](https://python.langchain.com/docs/integrations/chat/)

并将API密钥添加到.env文件中。

OPENAI_API_KEY=
ANTHROPIC_API_KEY=

重要提示:只有具备工具调用功能的模型才能与mcp_use配合使用。