MCP的出现是为了解决大型语言模型(LLM)应用的一个关键局限性,即它们与外部数据源和工具的隔离。
基于LLM的应用的一个重点关注领域是数据交付方面。将数据传递给LLM以进行推理,这是检索增强生成(RAG)实现、微调以及MCP的目标之一。
MCP的主要目的是标准化基于LLM的应用如何连接到各种系统,如下图所示:
消除自定义集成
在向AI代理交付数据方面存在挑战,换句话说,就是将基于AI代理/LLM(大型语言模型)的应用与外部数据源进行集成存在困难。
人们已经尝试了多种方法,试图通过利用图形用户界面(GUI)、网页浏览器和网页搜索来实现某种程度的无缝集成。所有这些途径都有其优点和缺点。
MCP有潜力成为一个通用接口,可以把它想象成AI领域的虚拟/软件版USB-C。
它能够实现LLM/AI代理与外部资源之间无缝、安全且可扩展的数据交换。
MCP采用客户端-服务器架构,其中MCP主机(AI应用)与MCP服务器(数据/工具提供者)进行通信。
开发者可以使用MCP构建可重用的模块化连接器,同时提供针对流行平台的预构建服务器,从而创建一个由社区驱动的生态系统。
MCP的开源性质鼓励创新,允许开发者在通过细粒度权限等功能保持安全性的同时,扩展其能力。
最终,MCP旨在将AI代理从孤立的聊天机器人转变为具有上下文感知能力的、可互操作的系统,深度集成到数字环境中。
逐步操作指南
Anthropic的模型上下文协议(MCP)是一个开源协议,用于将大型语言模型(LLM)与上下文、工具和提示连接起来。它拥有越来越多的服务器,用于连接到各种工具或数据源。在这里,我们将展示如何将任何MCP服务器连接到LangGraph代理并使用MCP工具……
如果你和我一样,那么无论原型多么简单,只要能让它工作起来,就会带来极大的清晰感和理解力;至少在我自己看来是这样。
要开始操作,请打开一个终端应用程序……下面是在MacBook上找到它的位置。
在终端窗口中,创建两个选项卡;一个用于运行服务器,另一个用于运行客户端。
创建虚拟环境来安装和运行代码是一个良好的实践;下面的命令将创建一个名为MCP_Demo的虚拟环境。
python3 -m venv MCP_Demo
然后运行以下命令来激活(进入)虚拟环境:
source MCP_Demo/bin/activate
你会看到命令提示符已更新为包含(MCP_Demo)。
按顺序运行以下代码行:
pip install langchain-mcp-adapters
pip install langchain-mcp-adapters
export OPENAI_API_KEY=<your_api_key>
将文本 <your_api_key 替换为你的 OpenAI API 密钥。
在一个终端选项卡中,创建一个文本文件:vim server.py,
然后粘贴以下 Python 代码:
# math_server.py
from mcp.server.fastmcp import FastMCP
mcp = FastMCP("Math")
@mcp.tool()
def add(a: int, b: int) -> int:
"""Add two numbers"""
return a + b
@mcp.tool()
def multiply(a: int, b: int) -> int:
"""Multiply two numbers"""
return a * b
if __name__ == "__main__":
mcp.run(transport="stdio")
关闭文本文件,使用以下命令启动并运行服务器:
python3 math_server.py
你不会看到任何输出,终端选项卡将如下所示:
现在,我们将创建并运行客户端……当MCP服务器在一个选项卡中运行时,转到第二个选项卡……创建一个文件以粘贴客户端代码:vim client.py。将以下代码粘贴到文件中:
# Create server parameters for stdio connection
from mcp import ClientSession, StdioServerParameters
from mcp.client.stdio import stdio_client
from langchain_mcp_adapters.tools import load_mcp_tools
from langgraph.prebuilt import create_react_agent
from langchain_openai import ChatOpenAI
import asyncio
model = ChatOpenAI(model="gpt-4o")
server_params = StdioServerParameters(
command="python",
# Make sure to update to the full absolute path to your math_server.py file
args=["math_server.py"],
)
async def run_agent():
async with stdio_client(server_params) as (read, write):
async with ClientSession(read, write) as session:
# Initialize the connection
await session.initialize()
# Get tools
tools = await load_mcp_tools(session)
# Create and run the agent
agent = create_react_agent(model, tools)
agent_response = await agent.ainvoke({"messages": "what's (3 + 5) x 12?"})
return agent_response
# Run the async function
if __name__ == "__main__":
result = asyncio.run(run_agent())
print(result)
使用命令 python3 client.py 运行客户端。客户端将运行一次,并以以下输出结束:
{'messages':
[HumanMessage(content="what's (3 + 5) x 12?",
additional_kwargs={}, response_metadata={},
id='87a8b6b6-9add-4da7-aea5-1b197c0fc0f5'),
AIMessage(content='',
additional_kwargs={'tool_calls': [{'id': 'call_1eyRzR7WpKzhMXG4ZFQAJtUD',
'function':
{'arguments': '{"a": 3, "b": 5}', 'name': 'add'},
'type': 'function'},
{'id': 'call_q82CX807NC3T6nHMrhoHT46E',
'function':
{'arguments': '{"a": 8, "b": 12}', 'name': 'multiply'},
'type': 'function'}],
'refusal': None},
response_metadata={'token_usage':
{'completion_tokens': 51,
'prompt_tokens': 77,
'total_tokens': 128,
'completion_tokens_details':
{'accepted_prediction_tokens': 0,
'audio_tokens': 0,
'reasoning_tokens': 0,
'rejected_prediction_tokens': 0},
'prompt_tokens_details':
{'audio_tokens': 0,
'cached_tokens': 0}},
'model_name': 'gpt-4o-2024-08-06',
'system_fingerprint': 'fp_eb9dce56a8',
: 'tool_calls',
'logprobs': None},
id='run-13c01640-f92b-48b7-9340-c2ad983eb1c8-0',
tool_calls=[{'name': 'add', 'args': {'a': 3, 'b': 5},
'id': 'call_1eyRzR7WpKzhMXG4ZFQAJtUD',
'type': 'tool_call'}, {'name': 'multiply',
'args': {'a': 8, 'b': 12},
'id': 'call_q82CX807NC3T6nHMrhoHT46E',
'type': 'tool_call'}],
usage_metadata={'input_tokens': 77,
'output_tokens': 51,
'total_tokens': 128,
'input_token_details': {'audio': 0,
'cache_read': 0},
'output_token_details': {'audio': 0,
'reasoning': 0}}),
ToolMessage(content='8',
name='add',
id='f8e0aba5-7a62-44c6-92a3-5fe3b07c9bd5',
tool_call_id='call_1eyRzR7WpKzhMXG4ZFQAJtUD'),
ToolMessage(content='96',
name='multiply',
id='66b9bbd9-b99a-402f-b26c-df83f5a69fa3',
tool_call_id='call_q82CX807NC3T6nHMrhoHT46E'),
AIMessage(content='The result of \\((3 + 5) \\times 12\\) is 96.',
additional_kwargs={'refusal': None},
response_metadata=: {
结论
MCP是一种便捷的方式,用于将AI代理与提供上下文和记忆的信息和服务进行集成。