Flex.2-preview
2261
0
0
Flex.2-preview是由Ostris团队发布的一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。该模型在Hugging Face上开源,采用Apache2.0许可证,凭借其强大的控制能力与高效生成特性,迅速成为AI艺术创作社区的焦点。
工具标签:
直达网站
工具介绍
Flex.2-preview概述
Flex.2-preview是由Ostris团队发布的一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。该模型在Hugging Face上开源,采用Apache2.0许可证,凭借其强大的控制能力与高效生成特性,迅速成为AI艺术创作社区的焦点。

核心功能
1.通用控制支持:
- 内置线条(Canny)、姿态和深度控制,允许用户通过精确控制图像来引导生成结果。
- 支持基于深度图生成3D风格场景或基于线稿生成精细插图。
2.图像修补能力:
- 支持高级图像修补(inpainting),用户可通过掩码指定区域进行内容替换或修复。
- 例如,将图像中的狗替换为“白色机器人狗坐在长椅上”。
3.ComfyUI工作流集成:
- 模型专为ComfyUI优化,提供节点化工作流支持。
- 简化复杂任务的配置,如文本到图像、图像到图像与控制网络的组合。
4.高效生成:
- 基于8亿参数的精简架构,生成1024x1024高分辨率图像仅需50步推理。
- 适合16GB VRAM的消费级GPU,如RTX3060或更高。
技术架构
架构优化:
- 继承Flux.1的整流流变换器(Rectified Flow Transformer)架构,拥有8个双变换器块,相比Flux.1-dev的19个更轻量。
- 通过指导嵌入器(Guidance Embedder)消除对分类器自由引导(CFG)的依赖。
控制与修补集成:
- 采用16通道潜在空间设计,结合噪声潜在、变分自编码器(VAE)编码的修补图像、掩码与控制输入,共49通道。
- 支持灵活的控制与修补工作流。
开源与微调支持:
- 通过AI-Toolkit提供微调工具,开发者可绕过指导嵌入器进行定制化训练。
- 生成特定风格或主题的模型,保留Apache2.0许可证的商业友好性。
高效推理:
- 支持FP8与bfloat16精度,通过TorchAo的8位量化降低内存占用。
- 优化了在RTX3090等硬件上的推理速度。
需求人群
- 数字艺术家与插画家:需要快速生成概念艺术或插图,适合游戏美术与动画预可视化。
- 广告与品牌设计师:需要快速调整广告素材,如替换产品或背景,同时保持品牌风格一致性。
- 影视与内容创作者:需要基于姿态控制的角色设计或场景生成,加速故事板与视觉效果开发。
- 教育工作者与初创企业:需要为教学或产品原型提供低成本的图像生成方案,快速迭代视觉创意。
应用场景
- 数字艺术与插图创作:艺术家可通过线条与深度控制快速生成各种风格的艺术作品或插图。
- 广告与品牌设计:利用图像修补功能快速调整广告素材,提高广告制作效率。
- 影视与内容创作:支持基于姿态控制的角色设计或场景生成,为影视制作提供丰富的视觉素材。
- 教育与原型设计:为教学或产品原型提供直观的图像生成方案,帮助学生和初创企业快速验证创意。
使用教程
- 硬件准备:确保拥有16GB VRAM的消费级GPU,如RTX3060或更高。
- 模型下载:从Hugging Face下载Flex.2-preview.safetensors文件,放置于ComfyUI/models/diffusion_models/目录下。
- 软件更新:确保ComfyUI已更新至最新版本,并安装必需的CLIP模型(t5xxl_fp16.safetensors与clip_l.safetensors)与VAE(ae.safetensors)。
- 工作流加载:
下载官方提供的flex2-workflow.json文件,拖入ComfyUI加载工作流。
配置提示词与控制图像(如深度图或线稿)。
- 运行推理:
调整control_strength(推荐0.5)与guidance_scale(推荐3.5),生成1024x1024图像。
根据需要调整其他参数以优化生成效果。
性能对比
- 图像质量:在VBench评估中,Flex.2-preview的CLIP得分(0.82)接近Flux.1-dev(0.84),优于Flux.1Schnell(0.79)。在手部细节与复杂构图上表现更佳。
- 控制精度:结合XLabs ControlNet,Flex.2在Canny与深度控制任务中的一致性超越InstantX的Flux.1-dev-Controlnet-Union-alpha约8%。
- 推理速度:生成1024x1024图像(50步)平均耗时20秒(RTX3090,FP8),比Flux.1-dev快约15%。
- 资源占用:8亿参数与FP8量化使其内存需求仅为Flux.1-dev的60%,更适合消费级硬件。
其他内容
社区反响:
- 社区对Flex.2-preview的灵活控制能力与开源精神给予高度评价。
- 开发者称其为“将ComfyUI的工作流潜力发挥到极致”的工具。
改进方向:
- 部分用户反馈模型对复杂提示的语义理解仍有提升空间。
- Ostris团队回应称下一版本将优化多模态提示处理并引入动态阈值调整,进一步提升生成稳定性。
未来展望:
- Flex.2-preview的发布彰显了Ostris在开源AI图像生成领域的创新能力。
- 随着AI-Toolkit的持续迭代,Flex.2有望成为微调与定制化生成的标准模型。
- 社区已在探讨将其与MCP协议结合,构建统一的AI艺术工作流。
评论
全部评论

暂无评论
热门推荐
相关推荐

Video-XL-2
Video-XL-2是智源研究院联合上海交通大学等机构于2025年6月发布的超长视频理解模型,其核心突破在于单张显卡即可处理万帧级视频输入(约1小时时长的30FPS视频),同时保持轻量化设计(参数规模远低于720亿参数的闭源模型)。
天工AI搜索
天工AI搜索 是由昆仑万维开发的一种AI搜索引擎,它融入了大语言模型的能力,提供智能、高效、快速的搜索体验。
OmniTalker
OmniTalker是阿里通义实验室开发的一款基于深度学习和多模态融合技术的新型数字人视频生成大模型。它能够通过上传一段参考视频,实现对视频中人物的表情、声音和说话风格的精准模仿,从而生成高度逼真的数字人视频。
SmolLM3
SmolLM3是全球知名的大模型开放平台Hugging Face于2025年7月9日发布并开源的小参数模型。它仅有30亿参数,却性能卓越,超越了Llama-3.2-3B和Qwen2.5-3B等同类开源模型。该模型具备128k上下文窗口,可处理英语、法语等6种语言文本,还支持深度思考和非思考双推理模式
Marble
Marble是由斯坦福大学教授、"AI教母"李飞飞创立的World Labs推出的全球首款商用多模态世界模型。作为生成式AI领域的革命性产品,Marble突破了传统3D建模的技术边界,通过文本、图像、视频甚至3D草图等多种输入方式,可实时生成具备物理规则的持久性3D环境。
dots.llm1
dots.llm1是小红书Hi Lab研发的1420亿参数专家混合模型(MoE),采用稀疏激活架构,推理时仅激活140亿参数。这一设计在保持高性能的同时,大幅降低了训练和推理成本。模型支持中英双语,上下文长度达32,768个token,适用于语义理解、知识问答、代码生成等多场景任务.
MiniGPT-4
MiniGPT-4是一个融合了视觉编码器和高级大型语言模型(LLM)Vicuna的创新模型,二者通过一个投影层实现协同工作。该模型展现了与GPT-4相媲美的功能,例如能够生成详尽的图像描述,以及从手绘草图创建网站。
AniSora
Bilibili(B站)的开源动漫视频生成模型AniSora是专为动漫视频生成设计的综合系统,该模型具备海量数据支持、时空掩码技术、专业评估体系三大核心优势,可一键生成多种动漫风格的视频内容,显著降低创作门槛并提升制作效率。
0
0






