Flex.2-preview
3032
0
0
Flex.2-preview是由Ostris团队发布的一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。该模型在Hugging Face上开源,采用Apache2.0许可证,凭借其强大的控制能力与高效生成特性,迅速成为AI艺术创作社区的焦点。
工具标签:
直达网站
工具介绍
Flex.2-preview概述
Flex.2-preview是由Ostris团队发布的一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。该模型在Hugging Face上开源,采用Apache2.0许可证,凭借其强大的控制能力与高效生成特性,迅速成为AI艺术创作社区的焦点。

核心功能
1.通用控制支持:
- 内置线条(Canny)、姿态和深度控制,允许用户通过精确控制图像来引导生成结果。
- 支持基于深度图生成3D风格场景或基于线稿生成精细插图。
2.图像修补能力:
- 支持高级图像修补(inpainting),用户可通过掩码指定区域进行内容替换或修复。
- 例如,将图像中的狗替换为“白色机器人狗坐在长椅上”。
3.ComfyUI工作流集成:
- 模型专为ComfyUI优化,提供节点化工作流支持。
- 简化复杂任务的配置,如文本到图像、图像到图像与控制网络的组合。
4.高效生成:
- 基于8亿参数的精简架构,生成1024x1024高分辨率图像仅需50步推理。
- 适合16GB VRAM的消费级GPU,如RTX3060或更高。
技术架构
架构优化:
- 继承Flux.1的整流流变换器(Rectified Flow Transformer)架构,拥有8个双变换器块,相比Flux.1-dev的19个更轻量。
- 通过指导嵌入器(Guidance Embedder)消除对分类器自由引导(CFG)的依赖。
控制与修补集成:
- 采用16通道潜在空间设计,结合噪声潜在、变分自编码器(VAE)编码的修补图像、掩码与控制输入,共49通道。
- 支持灵活的控制与修补工作流。
开源与微调支持:
- 通过AI-Toolkit提供微调工具,开发者可绕过指导嵌入器进行定制化训练。
- 生成特定风格或主题的模型,保留Apache2.0许可证的商业友好性。
高效推理:
- 支持FP8与bfloat16精度,通过TorchAo的8位量化降低内存占用。
- 优化了在RTX3090等硬件上的推理速度。
需求人群
- 数字艺术家与插画家:需要快速生成概念艺术或插图,适合游戏美术与动画预可视化。
- 广告与品牌设计师:需要快速调整广告素材,如替换产品或背景,同时保持品牌风格一致性。
- 影视与内容创作者:需要基于姿态控制的角色设计或场景生成,加速故事板与视觉效果开发。
- 教育工作者与初创企业:需要为教学或产品原型提供低成本的图像生成方案,快速迭代视觉创意。
应用场景
- 数字艺术与插图创作:艺术家可通过线条与深度控制快速生成各种风格的艺术作品或插图。
- 广告与品牌设计:利用图像修补功能快速调整广告素材,提高广告制作效率。
- 影视与内容创作:支持基于姿态控制的角色设计或场景生成,为影视制作提供丰富的视觉素材。
- 教育与原型设计:为教学或产品原型提供直观的图像生成方案,帮助学生和初创企业快速验证创意。
使用教程
- 硬件准备:确保拥有16GB VRAM的消费级GPU,如RTX3060或更高。
- 模型下载:从Hugging Face下载Flex.2-preview.safetensors文件,放置于ComfyUI/models/diffusion_models/目录下。
- 软件更新:确保ComfyUI已更新至最新版本,并安装必需的CLIP模型(t5xxl_fp16.safetensors与clip_l.safetensors)与VAE(ae.safetensors)。
- 工作流加载:
下载官方提供的flex2-workflow.json文件,拖入ComfyUI加载工作流。
配置提示词与控制图像(如深度图或线稿)。
- 运行推理:
调整control_strength(推荐0.5)与guidance_scale(推荐3.5),生成1024x1024图像。
根据需要调整其他参数以优化生成效果。
性能对比
- 图像质量:在VBench评估中,Flex.2-preview的CLIP得分(0.82)接近Flux.1-dev(0.84),优于Flux.1Schnell(0.79)。在手部细节与复杂构图上表现更佳。
- 控制精度:结合XLabs ControlNet,Flex.2在Canny与深度控制任务中的一致性超越InstantX的Flux.1-dev-Controlnet-Union-alpha约8%。
- 推理速度:生成1024x1024图像(50步)平均耗时20秒(RTX3090,FP8),比Flux.1-dev快约15%。
- 资源占用:8亿参数与FP8量化使其内存需求仅为Flux.1-dev的60%,更适合消费级硬件。
其他内容
社区反响:
- 社区对Flex.2-preview的灵活控制能力与开源精神给予高度评价。
- 开发者称其为“将ComfyUI的工作流潜力发挥到极致”的工具。
改进方向:
- 部分用户反馈模型对复杂提示的语义理解仍有提升空间。
- Ostris团队回应称下一版本将优化多模态提示处理并引入动态阈值调整,进一步提升生成稳定性。
未来展望:
- Flex.2-preview的发布彰显了Ostris在开源AI图像生成领域的创新能力。
- 随着AI-Toolkit的持续迭代,Flex.2有望成为微调与定制化生成的标准模型。
- 社区已在探讨将其与MCP协议结合,构建统一的AI艺术工作流。
评论
全部评论

暂无评论
热门推荐
相关推荐

AGI-Eval
AGI-Eval,一个由上海交通大学、同济大学、华东师范大学及DataWhale等知名高校与机构强强联合打造的大模型评测社区,正以“评测助力,让AI成为人类更好的伙伴”为使命,致力于构建一个公正、可信、科学且全面的评测生态体系。这一平台专注于评估基础模型在人类认知与问题解决任务中的通用能力,通过一系
开搜AI搜索
开搜AI搜索,这款国产的AI搜索引擎平台,致力于为用户提供如同Google搜索般高效、便捷的搜索体验。它利用先进的AI技术,精准把握用户的搜索意图,快速呈现最相关、最可靠的信息,让您无需像使用soso搜索时那样翻阅多个网页。
LightSeek
LightSeek是上海交通大学无锡光子芯片研究院(CHIPX)于2025年12月8日正式开放的全球首个光子芯片全链垂直大模型,其定位为“光子芯片领域的AI工程师”。通过模拟资深工程师的决策逻辑,LightSeek能够理解多模态输入,并输出专业级解决方案,涵盖从概念设计到量产落地的全流程。
Parakeet-TDT-0.6B-V2
Parakeet-TDT-0.6B-V2是英伟达在语音识别技术领域的又一力作,它基于先进的FastConformer架构,并融合了创新的TDT解码器,是一款专注于英文自动语音识别的强大模型。作为Parakeet模型的升级版本,它不仅继承了前代模型的优秀基因,还在性能和功能上实现了重大突破。
Video-XL-2
Video-XL-2是智源研究院联合上海交通大学等机构于2025年6月发布的超长视频理解模型,其核心突破在于单张显卡即可处理万帧级视频输入(约1小时时长的30FPS视频),同时保持轻量化设计(参数规模远低于720亿参数的闭源模型)。
面壁露卡
「面壁露卡 Luca」是面壁智能基于自研千亿参数基座模型 CPM 打造的多模态智能对话助手。
HiDream-I1
HiDream-I1是由千象HiDream ai(智象未来)团队打造的国产开源图像生成模型。它基于扩散模型技术,拥有17亿参数,这一规模在开源模型中颇具竞争力,能够依据文本描述生成高质量图像,为众多领域带来了全新的图像创作解决方案。
EmaFusion
EmaFusion是Ema公司推出的一款新型AI语言模型,它采用了一种创新的“级联”判断系统,能够动态平衡成本和准确性。与传统的单一策略系统相比,EmaFusion更像是一个“任务智能大脑”,能够智能地拆解复杂的问题,并将其分配给最合适的AI模型来解决。
0
0






