MCP-Use:轻松连接LLM与MCP服务器,打造多功能智能代理
MCP-Use是一款开源客户端库,让LLM轻松连接到MCP服务器,实现网页浏览、文件操作等功能,操作简便,支持多种LLM和MCP服务器。
MCP-Use介绍
MCP(模型上下文协议)为LLM提供统一的工具和数据源接口,MCP-Use作为开源客户端库,通过自定义代理连接LLM到MCP服务器,构建智能代理。
操作简便,仅需6行代码即可创建MCP代理;支持HTTP连接;动态选择MCP服务器;支持多服务器使用;提供工具访问控制。
MCP-Use主要特点
| 🔄易于使用 | 仅需6行代码创建MCP代理 |
| 🤖LLM灵活性 | 支持OpenAI、Anthropic、Groq、LLama等LLM |
| 🌐HTTP支持 | 直接连接到HTTP端口上的MCP服务器 |
| ⚙️动态服务器选择 | 自动选择最适合任务的MCP服务器 |
| 🧩多服务器支持 | 单个代理使用多个MCP服务器 |
| 🛡️工具限制 | 限制高危工具访问,提升安全性 |
MCP-Use快速启动
使用pip安装:

pip install mcp-use或从源安装:
git clone https://github.com/pietrozullo/mcp-use.git cd mcp-use pip install -e .安装LangChain提供程序
mcp_use通过LangChain与各种LLM提供程序兼容。根据所选LLM安装LangChain提供程序包,例如:
pip install langchain-openai # For OpenAI
pip install langchain-anthropic # For Anthropic
# For other providers, check the [LangChain chat models documentation](https://python.langchain.com/docs/integrations/chat/)并将API密钥添加到.env文件中。
OPENAI_API_KEY=
ANTHROPIC_API_KEY=
重要提示:只有具备工具调用功能的模型才能与mcp_use配合使用。