MiniMax Agent更名Mavis上线多智能体协作:一个AI打天下不如一支AI小队协同作战
如果你用过AI助手,大概都有过这种感受:一个AI同时干太多事,要么顾此失彼,要么卡在某个环节原地转圈。MiniMax显然也看到了这个问题。5月13日,他们正式宣布旗下Agent产品全面升级,并给它起了个新名字——Mavis。
这次更新的重头戏,是一个叫Agent Teams的新功能:你可以同时召唤一组拥有不同角色分工的AI智能体,让它们并行工作、各司其职。简单来说,以前是一个AI打天下,现在变成了一支AI小队协同作战。角色有分工,任务有侧重,整体效率自然上来了。
为什么要这么做?官方给出了答案——单个Agent在实际使用中存在明显短板:缺乏协同能力、功能过于分散、使用成本偏高……这些痛点日积月累,倒逼着多智能体协作方向的诞生。这个判断其实挺准确的。当Agent需要处理的任务越来越复杂,单智能体的上下文窗口和推理能力都会遇到瓶颈。多智能体协作的本质,是把一个大任务拆成多个子任务,分配给不同特长的Agent并行处理,最后汇总结果。这种方式不仅效率高,出错概率也更低。
除了功能升级,订阅体系也一并做了整合。以前可能要买好几个套餐才能凑齐所需功能,现在一份订阅打通所有权益,额度跨端共享,用起来省心不少。对于普通用户来说,登录后就能直接体验专业版功能,不用再为"够不够用"发愁。
从一个AI到一支AI团队,Mavis这次的升级方向,某种程度上也在回答一个更大的问题:当单打独斗遇到瓶颈,协作或许才是AI真正释放潜力的方式。多智能体协作不只是MiniMax的选择,也是整个AI Agent赛道正在探索的方向。
工具地址:MiniMax官网

GPT-5.6内测引爆补贴大战:OpenAI与Anthropic对轰,开发者坐收渔利
三周前GPT-5.5刚落地,GPT-5.6的消息已经提前炸出来了。知名爆料人Leo透露,GPT-5.6目前开发进度已全速推进,首批内部检查点在过去几天已启动测试,下个月很可能就会正式露面。更有意思的是,有人从OpenAI内部Codex日志里扒出了rollout mapping的痕迹——大部分调用还是指向GPT-5.5,但有一条记录赫然落在了GPT-5.6身上。内部代码名也被顺带曝光:ember-alpha和beacon-alpha。网友直呼:这迭代速度,根本追不上。
速度再度拉满——Codex即将上线ultrafast模式。爆料人Chetaslua同步透露,本周四OpenAI将在Codex上线"ultrafast模式",响应速度直接提升2到3倍,专门为延迟敏感型任务设计。与此同时,Image Arena排行榜上以+242分断档领先的gpt-image-2,也在同步推进A/B测试更新。今年3月GPT-5.4发布时,/fast模式已经实现了1.5倍加速;GPT-5.3-Codex-Spark借助Cerebras芯片,更是把推理速度拉到每秒超过1000token,是普通模式的15倍。而这次的ultrafast,直接在旗舰主力模型上实现提速——不是阉割版,不是小模型凑数,是正儿八经的全尺寸加速。
对开发者来说,Agent循环、长任务流水线、浏览器自动化……所有需要"等"的地方,体验将彻底不同。顺带一提,上周ChatGPT官方账号发出一张科幻感十足的图,界面上那句经典的"Ask ChatGPT"悄悄换成了"Message ChatGPT"。奥特曼丢下一句"Call me maybe",让外界对ChatGPT集成语音通话乃至推出硬件产品的猜测,彻底烧开了。
Codex vs Claude Code,补贴战正式开打。硅谷最戏剧性的一幕,就在今天上演。就在OpenAI ultrafast模式上线前夕,Anthropic率先出手——宣布从6月15日起,为付费用户每月提升50%的编程额度,覆盖Claude Agent SDK、命令行工具以及深度接入GitHub工作流的Claude Code,并同步发布了Opus4.7Fast模式,主打比Codex更快的高级推理与更流畅的长上下文编码体验。
OpenAI没让人等太久。反手祭出一招重磅补贴:接下来30天内,任何想从其他平台迁移到Codex的企业,直接获赠2个月免费使用权。按Pro计划每月200美元算,相当于白送400美元。奥特曼本人亲自下场喊话,直言Codex是"目前市面上最强的AI编程产品"。仅仅几个小时后,战报出炉:2000名开发者在3小时内主动联系了OpenAI。
这场怼脸硬刚,看呆了整个硅谷。开发者们倒是乐了——被两家顶级公司抢着补贴,这种好事,上哪儿说理去。飞轮已经开始自转。把这两件事放在一起看,会发现一个比任何单一新闻都更值得关注的趋势正在成形。AI正在加速自我进化。GPT-5.3-Codex是OpenAI首个"参与自身训练"的模型,到GPT-5.5,OpenAI内部85%的员工每周都在用Codex写代码。GPT-5.6几乎可以确定是在GPT-5.5的深度参与下开发出来的——AI在帮OpenAI造更强的AI。奥特曼说过,OpenAI的目标已经不止于AGI,直接瞄准了ASI。当模型迭代速度由AI自身驱动,通往ASI的飞轮,已经开始自转了。
工具地址:ChatGPT官网

从RAG到NotebookLM:AI知识库的进化之路,AI幻觉有了新解法
在人工智能的飞速发展中,知识库的技术演进也备受关注。最近,关于NotebookLM的技术实现路径引发了广泛讨论。这款AI笔记和研究助手以用户上传的资料为基础,显著减少了"AI幻觉"的发生,成为知识管理的新宠儿。
NotebookLM与传统的AI对话工具,如ChatGPT或Gemini有着本质的不同。其核心逻辑在于,NotebookLM只会基于用户提供的资料进行回答,保证了信息的准确性和相关性。通过这样的方式,用户能够更有效地利用其知识,而不是仅依赖模型随机生成的信息。说实话,这个设计思路很聪明——大模型的参数里压缩了整个互联网的知识,但正因为如此,它很难判断哪些是真、哪些是训练数据里的噪声。NotebookLM的做法是把"知识边界"明确下来:只说上传资料里有的内容,资料里没有的,它不会瞎编。
深究其技术路径,NotebookLM的本质实际上是一种高阶的RAG(Retrieval-Augmented Generation)系统。RAG通常是一个从资料中提取信息的过程,但在NotebookLM中,我们看到了一种更为复杂的实现。在该系统中,用户上传资料后,NotebookLM通过文档理解和多索引检索,将知识结构化并不断进行更新。这一过程让知识不仅仅是碎片化的答案,而是形成了一个可持续发展的知识体系。
Karpathy近期发布的《LLM Wiki》文档进一步明确了NotebookLM的技术基础。与传统RAG的即兴拼接不同,LLM Wiki强调将资料组织成结构化的知识库,允许持续更新和迭代。这种前置的知识编译使得NotebookLM在用户提问时能够提供更为精准和深入的回答。Google也透露,NotebookLM内部具有检索和排序的功能,帮助用户更好地管理资料。
从用户的角度来看,NotebookLM的优势在于简化了复杂的操作流程。用户只需上传资料、提出问题并能快速回到原文核查,系统自动处理了所有技术细节。这一黑箱操作极大地降低了用户使用知识库的门槛。随着技术的不断进步,NotebookLM代表了AI知识库的未来方向,展示了如何将复杂的工程问题转化为简单的用户体验。
工具地址:NotebookLM官网 (海外网站需要科学上网)

Anthropic宣布Claude Code额度提升50%:每周限额持续至7月13日,与OpenAI补贴战同日开打
Anthropic近日宣布,旗下开发者工具Claude Code的每周使用限额即日起临时提升50%,该调整将一直持续至2026年7月13日。值得关注的是,本次50%的额度增长可与上周刚生效的"加倍至5小时"限制实现累加,这意味着开发者在未来两个月内将获得远超常规水平的代码生成与处理能力。此次额度调整采取全自动生效机制,用户端无需进行任何额外配置或申请。
作为Anthropic布局开发者生态的核心工具,Claude Code自发布以来便以深度理解复杂代码库和高效执行编程任务著称。在当前全球AI原生应用开发进入爆发期的背景下,Anthropic通过连续叠加额度红利,显然意在降低开发者的试错成本,吸引更多高频用户深度嵌入其API生态。
这种针对特定时间段的资源倾斜,不仅反映了算力分配灵活性在模型竞争中的重要性,也预示着AI编程辅助工具正从"实验性辅助"向"高强度生产力"阶段迈进。随着7月13日窗口期的临近,开发者对Claude系列模型在高强度项目中的性能反馈,或将成为衡量Anthropic在开发者市场号召力的重要参考。
这场额度提升的时机颇为微妙——就在OpenAI宣布Codex ultrafast模式和迁移补贴的同一天,Anthropic同步推出了自己的额度加码。两家公司的补贴战已经从模型能力竞争,蔓延到了开发者生态的争夺上。对于每天高强度使用AI编程工具的开发者来说,这波"补贴红利"确实很实在。
工具地址:Claude官网(海外网站需要科学上网)

腾讯宣布小程序与AI深度融合:数百万小程序将接入AI智能体
在最新的业绩发布会上,腾讯高层透露了一个令人期待的发展方向:小程序与人工智能(AI)的整合。此举标志着腾讯在推进技术革新和提升用户体验方面迈出了重要一步。高层表示,腾讯拥有丰富的生态资源,这些资源将被有效转化为智能体的技能,助力小程序的进一步智能化。
据悉,腾讯正在微信平台内打造全新的AI智能体,目标是打通微信中的数百万个小程序。通过这种整合,用户将能够更便捷地访问和使用各种小程序,获得更个性化的服务。腾讯的AI技术将能够理解用户的需求,提供更加智能和高效的解决方案,进一步提升用户的操作体验。
这个方向其实挺自然的。微信小程序已经有数百万个,覆盖了衣食住行的方方面面,但用户要找到并使用这些小程序,还是得主动搜索或扫码。如果有一个AI智能体能理解用户的意图,自动调用合适的小程序来完成任务,整个体验会顺畅得多。比如你说"帮我点一杯美式咖啡",AI智能体直接调用咖啡品牌的小程序完成下单,而不是让你自己去搜索、选择、下单。
腾讯在这个场景里有一个其他玩家没有的优势:微信的社交关系链和私域数据。理论上,AI智能体可以根据你的聊天记录、消费习惯、地理位置,更精准地推荐和调用小程序。
当然,这里面涉及的数据隐私问题也需要仔细处理。如果腾讯能把这件事做好,微信的生态价值会被进一步放大——小程序不再是一个个孤立的工具,而是一个由AI智能体统一调度的服务网络。

具身智能领衔AI人才新高潮:岗位量暴增15倍,AI科学家月薪突破13万元
5月13日,脉脉发布的2026年春招职场报告显示,我国AI行业人才需求呈现爆发式增长,具身智能等前沿领域正进入高速扩张期。数据显示,2026年1月至4月期间,AI领域相关岗位总量同比激增8.7倍,其中具身智能岗位增长尤为显著,同比增幅高达15倍,成为拉动AI人才市场的核心引擎。
在岗位需求规模化扩张的同时,企业"加薪抢人"的态势进一步升级。具身智能岗位的平均月薪已从去年的5.9万元攀升至6.2万元,反映出市场对跨学科复合型人才的迫切渴求。从具体职位的薪资分布来看,AI科学家及负责人以132,796元的平均月薪位居新经济行业高薪岗位榜首,成为唯一月薪突破10万元大关的标杆职位。此外,算法研究员、AI Infra(基础设施)、系统架构师、大模型算法及AIGC算法工程师等细分领域亦保持高位增长。
这一人才结构的变化,标志着AI产业竞争重心已从基础架构的搭建,深度转向垂直领域的应用落地与物理交互。具身智能作为AI与机器人学深度融合的产物,其人才缺口的快速扩大,预示着感知、决策与执行一体化的智能化浪潮正加速到来。随着核心岗位薪资持续走高,高端人才向关键技术节点的集聚,将直接决定企业在未来大模型产业下半场的竞争力。
说实话,具身智能岗位15倍的增长数字确实很夸张,但也说明这个方向的热度是真的高。具身智能需要的不仅是AI算法能力,还需要机器人学、控制理论、传感器融合等跨学科背景,这类人才本来就少,现在各家都在抢,薪资水涨船高不足为奇。AI科学家13万年薪(约合年薪160万)这个数字,放在全球范围内也是很有竞争力的。

微软与OpenAI联手投资超1000亿美元:云计算基础设施大升级,Azure扛下全部算力重担
微软公司在其与人工智能公司OpenAI的合作关系中,投入了超过1000亿美元。这一惊人的数字不仅包括微软最初的投资,还涵盖了为OpenAI构建云计算基础设施以及提供计算托管服务的各项费用。这一消息是由微软负责交易事务的高管迈克尔·韦特(Michael Wetter)在当地时间5月11日确认的,标志着微软在人工智能领域的雄心壮志。
韦特指出,这一投入是截至当前财年(将于6月结束)的累计总额,其中有相当一部分成本是在尚未获得任何营收之前就已产生的。他强调:"我们需要在为OpenAI提供服务之前,提前构建好Azure的基础设施。"Azure是微软旗下的云计算服务平台,近年来在全球范围内迅速发展,成为企业数字转型的重要基础。
这一巨额投资的背景可追溯到人工智能技术的迅猛发展。微软与OpenAI的合作始于对人工智能潜力的共同认可,两者携手旨在推动技术创新,提升用户体验,并推动社会的数字化转型。随着人工智能在各个领域的应用逐渐普及,云计算的需求也急剧上升,微软正是在这一趋势下,加大了对OpenAI的支持力度。
通过这一投资,微软不仅在技术上为OpenAI提供了强大的后盾,同时也在竞争中抢占了先机。当前,云计算市场竞争激烈,微软的Azure与亚马逊的AWS、谷歌云等对手争夺市场份额。而通过与OpenAI的深度合作,微软希望能够在人工智能领域占得更大优势。
1000亿美元这个数字,放在任何行业都是惊人的投资规模。但考虑到AI大模型训练和推理的算力需求,这个数字又显得"合理"——一个千亿参数级别的模型,训练一次就需要数百万美元的算力成本,更不用说持续迭代和全球范围推理服务的计算了。
微软通过Azure为OpenAI提供算力,同时把OpenAI的AI能力集成到自己的产品线里(Office、Windows、Bing等),这是一条双向绑定的深度战略合作关系。
工具地址:ChatGPT官网

AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说
AITOP100平台官方交流社群二维码:










