MCP,NLWEB,LLMS.TXT:解密新协议,该协议构建了AI访问Web的访问

出现了新一代的协议,以结构与在线内容的互动,而生成人工智能成为信息的中心访问点。这些标准不如用户界面可见,这些标准在网络上如何暴露,消耗和精心策划数据。 MCP,NLWEB,LLMS.TXT或Agent2Agent绘制了老化网络的轮廓,对机器和人类的想法和人类一样多。

从RSS到机器互操作性

在2000年代初期,RSS和原子流旨在促进人类和搜索引擎对内容的综合和发现。二十年后,人工智能出现同一问题,如何允许他们以结构化的方式访问,理解和使用在线发布的数据?

Microsoft,Google,Anthropic或开源社区的举措旨在满足这一需求。他们并不全部履行相同的功能,而是有一个共同的野心:使AI代理的网络可互操作,无论是要丰富研究,以构建任务的编排还是管理使用权。

NLWEB:将网站转换为对话界面

NLWEB在2025会议上宣布,是由Microsoft开发的开源协议。 RV Guha是RDF和Schema.org的发起人之一RV Guha设计的,它允许任何站点在自然语言中被用户和AI质疑。

该协议基于已经存在的结构化格式(例如RSS或JSON-LD),将它们索引在向量基础中,然后使用语言模型丰富它们。因此,该站点成为一种具有重大技术重新设计的代理应用。

微软技术总监凯文·斯科特(Kevin Scott)将NLWEB呈现为代理商互联网的HTML。

MCP:AI的数据传输协议

最初由拟人化开发的模型控制协议(MCP)构成了NLWEB中的基础通信基础架构。 MCP定义了一个开放标准,允许AI将请求安装到数据源并获得可用响应。

Constellation Research的分析师Michael Ni将MCP描述为Web代理的“ TCP/IP”层。 NLWEB代表演示层,而MCP提供了安全和结构化的传输。

目的是通过使请求可以理解,无论上游数据格式如何,都可以通过使请求使请求进行标准化。这种方法允许质疑内部文献基础以及访问公共内容。

llms.txt:AI的培训权限文件

在另一个频谱上,llms.txt旨在调节语言模型访问公共内容的方式。 llms.txt受到搜索引擎的启发。

靠近降价的格式易于实现。它不打算允许互动,而是在AI使用的透明度和数据治理方面达到了越来越多的期望。

Dappier的首席技术官Krish Arvapally强调了LLMS.TXT“为AI提供了清晰的培训许可结构”。该协议不能取代对话方法,而是通过先验框架机制完成了技术生态系统。

Agent2agent:协调人工智能之间的任务

最后,由Google发起的Agent2Agent(A2A)协议重点介绍了代理编排。与以前的内容不同,它不是旨在访问内容,而是AI之间的协调。 A2A定义了标准化语言,以允许几个代理交换任务,管理共享上下文并执行复杂的工作流程。

尽管该协议声称是开源的,并且独立于模型,但其首次实现仍然强烈集成到Google的双子座生态系统中,这可能会限制其在此环境之外的采用。

AI的新基础架构

这些协议的融合宣布了专用于智能代理的网络的技术基础架构的出现。 NLWEB和MCP允许内容曝光。 llms.txt将其重用。 IA实体之间的Agent2Agent结构协作。

根据迈克尔·尼(Michael Ni)的说法,NLWEB仍处于早期阶段,应需要两到三年的时间才被公司完全采用。但是,他指出,在结构化内容或高度暴露的数字环境中具有较大基础的组织有兴趣预测这种突变。

机器读取的网络

在中期,这些协议可以将自己确立为Web的新不可见标准,例如HTML或XML。诺言不再仅仅是为了使页面可读,而是要使它们 可以理解。网络成为机器之间对话的一个空间,现在,公司的挑战是选择是否以及如何参加。