
Luma Labs于3月23日发布图像生成模型Uni-1,这是该公司基于Unified Intelligence架构推出的首款公开模型。官网已开放免费试用,API定价同步公布,企业接入通道将逐步上线。
使用地址:lumalabs.ai/uni-1
架构变革:从扩散模型到自回归
Uni-1放弃了当前主流的扩散模型路线,转而使用decoder-only自回归Transformer,将文本token与图像token交错排列成单一序列,在同一个前向传播中完成推理和像素生成。
Luma CEO Amit Jain解释,传统方案通常是先用语言模型规划、再交给扩散模型生成,两个阶段之间存在信息损耗。Uni-1的设计目标正是消除这个断层,实现真正的统一生成。
Jain此前任职Apple,参与过Vision Pro工程工作。
功能亮点:参考图控制与跨风格生成
Uni-1支持单张或多张参考图引导生成,可保留人物身份、姿势和构图。官方测试显示,在处理角色一致性和人像控制时,多参考图模式表现稳定。
模型声称支持76种视觉风格,覆盖写实摄影、漫画、浮世绘等类别。
演示中有一个令人印象深刻的场景:输入"画一张金门大桥信息图",模型自动规划布局,生成桥梁结构图并标注"1711 Meters"等数据,内部推理过程实时可见。
基准测试:空间推理与参考生成领先
Luma公布的数据显示,Uni-1在多项基准测试中表现优异:
- RISEBench推理基准:总分0.51,高于Google Nano Banana 2的0.50和OpenAI GPT Image 1.5的0.46
- 空间推理单项:0.58,逻辑推理0.32,后者约为GPT Image的两倍
- ODinW-13物体检测:46.2 mAP,接近Google Gemini 3 Pro的46.3
- 人类偏好Elo排名:整体偏好、风格与编辑、参考生成三项排名第一,文生图单项排名第二

定价与成本优势
API按token计费,换算为单张图像:文生图(2048px)约0.0909,带单张参考图的编辑约0.0909,带单张参考图的编辑约0.0933,8张参考图约$0.1101。
VentureBeat报道称,在2K分辨率企业场景下,Uni-1成本比Google Nano Banana 2低10%至30%。
发布数小时内,相关帖子在X平台获得超过230万次浏览。Luma表示后续将推出视频和音频版本。
AITOP100-AI资讯频道将持续关注AI行业新闻资讯消息,带来最新AI内容讯息。
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区 | AI小说
AITOP100平台官方交流社群二维码:










