OpenAI 搞大事情!ChatGPT 要变身“万能打工人”啦!
自从 OpenAI 开放 GPT-4o 的图像生成给免费用户后,这回又来一波猛的!他们家的 Agents SDK 现在支持 Anthropic 推出的 MCP 服务协议了!
凌晨两点,奥特曼就忍不住发推特,昭告天下这个好消息。他说大家都喜欢 MCP,他们也很激动能在产品里支持它。而且 Agents SDK 已经可以用起来了,ChatGPT 桌面版和 Responses API 也在快马加鞭安排上!
OpenAI 的研究员 Steven Heidel 还发了一张吉卜力风格的图,解释 MCP 到底是个啥。简单来说,就像一个分布式系统,ChatGPT 这样的应用(MCP客户端)可以通过 MCP 协议,跟各种 MCP 服务器(A、B、C)沟通,获取数据和服务。
MCP 为啥这么火? 简直是 AI 界的“USB-C”
MCP 就像一个“万能插头”,让 AI 模型可以轻松从各种地方(比如业务工具、软件、数据库)获取数据,完成任务。开发者可以用它在数据源和 AI 应用之间建立连接,让 AI 更聪明。
Anthropic 去年 11 月开源 MCP 之后,很多公司(像 Block、Apollo、Replit)都在用。今年 2 月,MCP 生态更是爆发式增长,已经有超过 1000 个社区构建的 MCP 服务器可以使用了。
而且工具越多,MCP 就越好用,就像滚雪球一样。Anthropic 的首席产品官 Mike Krieger 也发推表示欢迎 OpenAI 加入 MCP 大家庭。他说,只有 AI 模型能连接到你现有的数据和软件,才能发挥最大作用。
之前爆火的 Manus 项目 OWL 的复刻者李国豪也说,看到 OpenAI 加入 MCP 生态非常激动。他认为 MCP 的意义在于推动标准化,让开发者不用依赖特定框架,可以自由使用各种工具。
OpenAI 的 Agents SDK + MCP = 无限可能!
有了 OpenAI Agents SDK 对 MCP 的支持,开发者可以轻松利用各种 MCP 服务器,给 AI 智能体提供更强大的能力。
两种 MCP 服务器类型:
- tdio 服务器:像应用程序的“本地助手”,作为子进程运行。
- HTTP over SSE 服务器:远程服务器,可以通过 URL 连接。
怎么用?
把 MCP 服务器集成到 AI 智能体里。AI 智能体每次运行时,Agents SDK 都会自动调用 MCP 服务器上的 `list_tools()` 函数,让 AI 知道有哪些工具可以用。
需要调用某个工具时,SDK 会执行 `call_tool()` 函数。
缓存机制:
为了提高效率,可以开启工具列表自动缓存功能 (`cache_tools_list=True`)。记得只有在工具列表不变的时候才启用哦!
链路追踪:
系统会自动记录所有 MCP 相关操作,方便你了解 AI 智能体的工作过程。
MCP:AI 世界的“万能插头”
MCP 就像 AI 应用的 USB-C 接口,让 AI 模型可以连接不同的数据源和工具,降低开发成本,提高 AI 的感知能力。
OpenAI 的 Agents SDK 就像一个“工具箱”,可以打造各种 AI 智能体。现在有了 MCP,开发者可以用 Agents SDK 直接调取外部数据和工具,让 AI 变得更聪明、更实用。
奥特曼还透露,未来 ChatGPT 客户端也会支持 MCP,让它变成超级私人助理。而且 MCP 加入 OpenAI API,开发者可以用更少的代码,干更多的事儿。
搞不好,下一代 AI 工作流,就要从这儿起飞了!