扫码打开虎嗅APP
本文来自微信公众号:硅星人Pro (ID:gh_c0bb185caa8d),作者:周一笑,题图来自:AI生成
现在你可以通过Claude直接控制和访问本地数据库,以及Google Drive、Slack、GitHub等平台的数据了。
近日,Anthropic开源了“模型上下文协议”(MCP),该协议将大模型直接连接至数据源,简单来说,现在企业和开发者要把不同的数据接入AI系统,都得单独开发对接方案,而MCP要做的,就是提供一个“通用”协议来解决这个问题。
Anthropic在博客中解释说:“即便是最先进的模型,也受困于无法获取数据的限制,它们被困在信息孤岛和老旧系统之中。每接入一个新的数据源,就得重新开发一套对接方案,这让真正互联的系统很难大规模推广。”
MCP架构包含以下几个部分:
MCP主机:包括Claude Desktop、IDE等需要通过MCP访问资源的AI工具
MCP客户端:与服务器保持一对一连接的协议客户端
MCP服务器:一个轻量级程序,通过标准化的MCP协议开放特定功能
本地资源:计算机上的数据库、文件和服务等资源,MCP服务器可以安全地访问这些内容
远程资源:通过互联网访问的API等资源,MCP服务器可以与之建立连接
Anthropic提到,美国金融服务公司Block Inc.已经把MCP整合进了他们的系统。Zed、Replit、Codium和Sourcegraph这些开发工具公司也在和Anthropic合作,准备接入这套协议。
Anthropic在解释这个协议的实用性时表示:“随着生态系统逐渐成熟,AI系统在不同工具和数据集之间切换时能够保持上下文连续性,这样就能用一个更可持续的架构,来取代现在这种零零散散的集成方式。”
模型上下文协议(MCP)让AI系统能灵活调用不同的数据源
Claude关系负责人Alex Albert表示,“MCP之所以强大,部分原因在于它通过同一协议处理本地资源(如数据库、文件、服务)和远程资源(如Slack或GitHub的API)”。
Anthropic官方为MCP提供了一个开源的Servers的贡献库
和Anthropic一样,OpenAI也在试图用更简单的方法把各种数据源接入到模型中。今年11月初,OpenAI推出了一个“Work with Apps”的新功能。这个功能目前只支持MacOS,它让ChatGPT能读取VS Code、Xcode、Terminal和iTerm2这些平台上的内容,从而给出更准确的回答。
这些都是开发工具,接入ChatGPT后,开发者就能直接问ChatGPT关于代码的问题,也能获取相关建议。
OpenAI还提到,ChatGPT会把这些内容存到用户的聊天记录里,这样OpenAI就能把它当作训练数据来用。如果用户不想让ChatGPT接触自己的代码数据,可以通过数据控制功能来阻止,或者使用临时聊天窗口。
相比之下,Anthropic似乎正试图通过MCP建立一个更加开放和标准化的AI数据接入生态系统。
为数据集成建立标准
目前还没有一个统一的方式来连接数据源和模型,主要靠企业用户、模型提供商和数据库供应商自己拿主意。开发者一般会写特定的Python代码或者用LangChain来让大模型连接数据库。由于每个大模型的运作方式都不一样,开发者需要给每个模型写不同的代码来连接特定的数据源。这就导致不同的模型虽然都在调用同一个数据库,却没法很好地协同工作。
从大模型行业从业者osmboy从接口标准化的角度看待MCP,MCP可以类比为Mac笔记本的接口:“只不过充电,外接显示器以及插本地U盘什么的都用一个接口统一起来了”。
他认为该协议的核心价值在于为大模型数据集成提供了统一标准,不仅能提高开发和使用效率,还能增强大模型的实际应用能力。
从技术演进来看,在MCP出现之前,业界主要依赖RAG和微调等方案,以及各类Agent应用来实现数据集成,“但比较常用的方案是基于langchain和llamaindex做应用以及数据集成,总体来说各做各的,比较繁杂,不统一”,
像Dify、Coze这些平台,都是借助llamaindex和langchain构建,虽然这些方案能够满足需求,但整体来说比较零散,缺乏统一标准。“Cozy和Dify都可能会支持MCP协议来做数据集成。”
他告诉硅星人,MCP的长期潜力在于建立一个统一的生态系统,从而降低开发门槛。随着这个开源协议的推广,未来大模型的数据集成可能都会采用这个标准接口,从而降低开发门槛,提高生产力。
也有用户持更为谨慎的态度,对MCP这类标准的价值提出了质疑:MCP想要标准化数据访问、提升性能,但这解决不了Claude的根本问题,比如它没法从错误中学习,也没法稳定地执行指令。“连Claude自己都承认它不能从反馈中学习,这就让所谓的智能体发展听起来很不靠谱。一个连基本任务都做不好的工具,就算数据访问再怎么流畅,也支撑不了自主系统。”
另外一位开发者认为,相较于从头开始做协议,OpenAI尝试通过与一家已将业务API化的现有公司合作来解决这一问题,这种方法看起来更为可行。
迈向Agent的下一步?
Anthropic在上个月推出了Compute Use之后,这次又发布了帮助大模型接入外部数据和工具的MCP,这两者都是在向Agentic工作流的方向迈进。
AIGCLINK发起人占冰强告诉硅星人,MCP相当于一个万能的数据插头,实际上打通了Agent构建的最后一公里,并且MCP是开源的,这就意味着未来每个公司都可以构建一个像扣子、Dify那样的平台。
“基本上可以说如果你还在做agent的中间件,我觉得基本上可以歇菜了。Anthropic把MCP这套东西完全开放,我相信后面全球的大模型公司都会跟进。”
他认为,原来的Agent的中间件是区别于扣子、GPTstore这一类的平台,为开发者解决隐私安全、知识产权的问题。“以前你用扣子这类的平台,比如有人复制了你的智能体的工作流,你也不可能去打官司,所以有很多的问题在里面。”
现在有的MCP之后,“工作流基本上都可以完全在本地,而且没有任何的商业授权的问题。”因此,模型方和应用方的分工会越来越明确。使得中间件平台的空间被压缩了。
在AI领域,Anthropic一直以稳健谨慎的作风著称,主要通过发表研究论文的方式对外分享其技术进展,与Meta等竞争对手相比,这家公司极少开源,主要产品Claude及其底层模型都处于严格管控之下。MCP的开源或许反映了Anthropic在数据接入标准化领域的野心,希望通过建立行业通用标准来扩大影响力。
总的来看,MCP的出现确实为AI系统接入数据源提供了一个新思路,但要真正普及还面临不少挑战。首先是生态建设问题,能否吸引足够多的开发者和企业采用仍是未知数。
不过作为一次标准化的尝试,MCP的意义在于它可能帮助简化目前较为混乱的数据接入现状。接下来的关键是看市场的反应,开发者是否会觉得这个方案足够实用,以及其他AI公司会采取什么样的应对策略。毕竟在技术标准的竞争中,市场的选择往往比技术本身更重要。
本文来自微信公众号:硅星人Pro (ID:gh_c0bb185caa8d),作者:周一笑