Meta Llama 4:开源 AI 的新希望,还是扎克伯格的焦虑?
清明小长假,Meta 扔了个“王炸”—— Llama 4 系列模型!1000 万上下文?2 万亿参数?MoE 混合架构?原生多模态?一堆酷炫名词,让人眼花缭乱。但冷静下来想想,Meta 这波操作,真能让它重回开源 AI 领头羊的地位吗?要知道,风头早就被 DeepSeek 抢走了!
听说这次是扎克伯格下了死命令,4 月初必须发布新版本大模型。Meta 的目标很明确:超越 GPT 和 Claude 等闭源模型,吊打一切!可现实呢?
Llama 4 系列模型:三个版本,各有千秋
- Llama 4 Scout(小号):单张 H100 GPU 就能跑,适合本地部署。最牛的是,它支持 1000 万 token 上下文!
- Llama 4 Maverick(中号):参数高达 4000 亿,但推理时只激活部分专家,效率更高。据说多模态性能超越 GPT-4o,编程能力媲美 DeepSeek v3,但参数只有一半。
- Llama 4 Behemoth(大号,预览版):Meta 的 2 万亿参数巨兽,还在训练中。号称在 STEM 任务上超越 GPT-4.5、Claude3.7 等。准备用它当“老师”,蒸馏优化更小的 Llama 4 模型。
跑分第二,多模态加持!
Llama 4 Maverick 目前在 LM Arena 排行榜上排名第二,仅次于 Gemini 2.5 Pro。而且,它还具备原生多模态能力,可以用海量的无标签文本、图片和视频数据一起来预训练模型。
超长上下文:记忆力惊人!
Scout 版本支持 1000 万 tokens(相当于 15000 页文本!),医学、科研、代码分析等超长文档处理能力直接拉满。别人家的大模型还在 200 万 tokens 上下徘徊,Meta 直接放大招,看来是不想和大家“闲聊”了。
核心技术揭秘:MoE + iRoPE
MoE 架构:效率飞升!
Llama 4 开始采用混合专家模型(MoE),推理时只激活部分参数,成本更低。Maverick 的推理成本仅 $0.19/百万 token,比 GPT-4o 便宜 90%!
iRoPE:超长上下文的秘密武器
iRoPE(交错旋转位置编码)是 Meta 为 Llama 4 设计的升级版位置编码技术。
- 局部注意力层: 用旋转位置编码(RoPE)处理短上下文(如 8K token),保留位置关系。
- 全局注意力层: 直接去掉位置编码(NoPE),通过动态调整注意力权重处理超长内容,类似“模糊匹配”长距离关联。
- 就像读书时用书签(RoPE)标记重点段落,同时靠记忆(NoPE)串联全书脉络。
RAG 技术要凉凉?
相比 RAG 技术,iRoPE 无需依赖外部知识库检索,直接通过模型内部自身处理完整信息,减少信息丢失风险。预计未来会成为大模型技术标配,以后大模型容易忘记前文的事情,基本就不会出现了。
开源有门槛: 商用需遵守 Meta 政策,月活超 7 亿的公司需额外授权,且产品名必须带“Llama”。
有大佬体验了 Llama 4 Scout,表示并没有特别惊艳的地方,DeepSeek 相比之下体感还是强很多。Llama 4 有点像 Google,“参数没输过,实战没赢过”。
🚀 一句话总结:Meta 这次把开源 AI 卷到新高度,多模态 + 长上下文 + 超低成本,Llama 4 可能是目前最香的开源大模型之一。
但是,据说 Meta 在后训练阶段中,将多个 benchmark 测试集混入训练数据。有高管因为 Llama 刷分问题愤而辞职,也就是说目前官宣的成绩有很大的水分。这波操作,让人对 Meta 的诚信产生了质疑。
Meta 旗下拥有 Facebook、Whatsapp 等知名社交 APP,全球还有超 30 亿月活用户。这波 Meta 在 AI 领域为了掩饰落后却公然造假,留给市场一句叹息。