

工具描述
Flex.2-preview是由Ostris团队发布的一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。该模型在Hugging Face上开源,采用Apache2.0许可证,凭借其强大的控制能力与高效生成特性,迅速成为AI艺术创作社区的焦点。
工具介绍
Flex.2-preview概述
Flex.2-preview是由Ostris团队发布的一款基于8亿参数的文本到图像扩散模型,专为集成到ComfyUI工作流设计。该模型在Hugging Face上开源,采用Apache2.0许可证,凭借其强大的控制能力与高效生成特性,迅速成为AI艺术创作社区的焦点。
核心功能
1.通用控制支持:
- 内置线条(Canny)、姿态和深度控制,允许用户通过精确控制图像来引导生成结果。
- 支持基于深度图生成3D风格场景或基于线稿生成精细插图。
2.图像修补能力:
- 支持高级图像修补(inpainting),用户可通过掩码指定区域进行内容替换或修复。
- 例如,将图像中的狗替换为“白色机器人狗坐在长椅上”。
3.ComfyUI工作流集成:
- 模型专为ComfyUI优化,提供节点化工作流支持。
- 简化复杂任务的配置,如文本到图像、图像到图像与控制网络的组合。
4.高效生成:
- 基于8亿参数的精简架构,生成1024x1024高分辨率图像仅需50步推理。
- 适合16GB VRAM的消费级GPU,如RTX3060或更高。
技术架构
架构优化:
- 继承Flux.1的整流流变换器(Rectified Flow Transformer)架构,拥有8个双变换器块,相比Flux.1-dev的19个更轻量。
- 通过指导嵌入器(Guidance Embedder)消除对分类器自由引导(CFG)的依赖。
控制与修补集成:
- 采用16通道潜在空间设计,结合噪声潜在、变分自编码器(VAE)编码的修补图像、掩码与控制输入,共49通道。
- 支持灵活的控制与修补工作流。
开源与微调支持:
- 通过AI-Toolkit提供微调工具,开发者可绕过指导嵌入器进行定制化训练。
- 生成特定风格或主题的模型,保留Apache2.0许可证的商业友好性。
高效推理:
- 支持FP8与bfloat16精度,通过TorchAo的8位量化降低内存占用。
- 优化了在RTX3090等硬件上的推理速度。
需求人群
- 数字艺术家与插画家:需要快速生成概念艺术或插图,适合游戏美术与动画预可视化。
- 广告与品牌设计师:需要快速调整广告素材,如替换产品或背景,同时保持品牌风格一致性。
- 影视与内容创作者:需要基于姿态控制的角色设计或场景生成,加速故事板与视觉效果开发。
- 教育工作者与初创企业:需要为教学或产品原型提供低成本的图像生成方案,快速迭代视觉创意。
应用场景
- 数字艺术与插图创作:艺术家可通过线条与深度控制快速生成各种风格的艺术作品或插图。
- 广告与品牌设计:利用图像修补功能快速调整广告素材,提高广告制作效率。
- 影视与内容创作:支持基于姿态控制的角色设计或场景生成,为影视制作提供丰富的视觉素材。
- 教育与原型设计:为教学或产品原型提供直观的图像生成方案,帮助学生和初创企业快速验证创意。
使用教程
- 硬件准备:确保拥有16GB VRAM的消费级GPU,如RTX3060或更高。
- 模型下载:从Hugging Face下载Flex.2-preview.safetensors文件,放置于ComfyUI/models/diffusion_models/目录下。
- 软件更新:确保ComfyUI已更新至最新版本,并安装必需的CLIP模型(t5xxl_fp16.safetensors与clip_l.safetensors)与VAE(ae.safetensors)。
- 工作流加载:
下载官方提供的flex2-workflow.json文件,拖入ComfyUI加载工作流。
配置提示词与控制图像(如深度图或线稿)。
- 运行推理:
调整control_strength(推荐0.5)与guidance_scale(推荐3.5),生成1024x1024图像。
根据需要调整其他参数以优化生成效果。
性能对比
- 图像质量:在VBench评估中,Flex.2-preview的CLIP得分(0.82)接近Flux.1-dev(0.84),优于Flux.1Schnell(0.79)。在手部细节与复杂构图上表现更佳。
- 控制精度:结合XLabs ControlNet,Flex.2在Canny与深度控制任务中的一致性超越InstantX的Flux.1-dev-Controlnet-Union-alpha约8%。
- 推理速度:生成1024x1024图像(50步)平均耗时20秒(RTX3090,FP8),比Flux.1-dev快约15%。
- 资源占用:8亿参数与FP8量化使其内存需求仅为Flux.1-dev的60%,更适合消费级硬件。
其他内容
社区反响:
- 社区对Flex.2-preview的灵活控制能力与开源精神给予高度评价。
- 开发者称其为“将ComfyUI的工作流潜力发挥到极致”的工具。
改进方向:
- 部分用户反馈模型对复杂提示的语义理解仍有提升空间。
- Ostris团队回应称下一版本将优化多模态提示处理并引入动态阈值调整,进一步提升生成稳定性。
未来展望:
- Flex.2-preview的发布彰显了Ostris在开源AI图像生成领域的创新能力。
- 随着AI-Toolkit的持续迭代,Flex.2有望成为微调与定制化生成的标准模型。
- 社区已在探讨将其与MCP协议结合,构建统一的AI艺术工作流。
热门推荐
相关推荐
Magma AI:微软多模态AI大模型
Magma是一款由微软精心打造的多模态AI模型,它旨在处理和整合图像、文本和视频等多种数据类型。与传统的AI系统不同,Magma不仅仅专注于视觉-语言理解或机器人操作等单一领域,而是将这两种能力结合成一个统一的模型,使得AI代理能够在数字和物理环境中执行更为复杂的任务。Sana:英伟达开源高效图像生成模型
Sana是英伟达开源的一款先进图像生成模型,它采用了深度压缩自编码器(DC-AE)和线性扩散变换器(DiT)等创新技术,能够在保持高质量图像生成的同时,实现极快的生成速度。这款模型支持生成高达4096×4096分辨率的图像,并且在16GB显卡上即可流畅运行,满足了广大用户对于高效图像生成的需求360智脑:360集团认知型通用大模型
360智脑是360公司自主研发的认知型通用大模型,依托其在算力、数据和工程化领域的长期积累,集成360GPT大模型、360CV大模型及多模态技术能力,构建起覆盖文本、图像、语音、视频的跨模态生成体系。Lipsync-2:全球首个零-shot嘴型同步模型
Lipsync-2是由Sync Labs公司推出的全球首个零-shot嘴型同步模型。在Ai视频技术发展的当下,嘴型同步技术对于提升视频的真实感和表现力至关重要。传统的嘴型同步技术往往需要大量的训练数据和针对特定演讲者的预训练,过程繁琐且效率低下而Lipsync-2的出现,打破了这一传统模式的束。朱雀大模型检测:AI图片与文章鉴别工具
验室上线的这款AI生成图片与文章鉴别工具-朱雀大模型检测,是一款基于深度学习和自然语言处理技术的智能检测平台。它通过对上传的图片和文章进行深度分析,捕捉真实与AI生成内容之间的差异,从而实现对AI生成内容的准确鉴别Parakeet-TDT-0.6B-V2:英伟达开源自动语音识别模型
Parakeet-TDT-0.6B-V2是英伟达在语音识别技术领域的又一力作,它基于先进的FastConformer架构,并融合了创新的TDT解码器,是一款专注于英文自动语音识别的强大模型。作为Parakeet模型的升级版本,它不仅继承了前代模型的优秀基因,还在性能和功能上实现了重大突破。讯飞星火:科大讯飞AI大模型
讯飞星火大模型是一款科大讯飞倾力打造的AI对话大模型产品,凭借其卓越的跨领域知识与语言理解能力,正逐步成为用户的得力助手。通过自然对话的方式,讯飞星火能够精准理解与执行用户指令,涵盖写作、绘画、搜索、问答、翻译、阅读等多元化功能。最新推出的讯飞星火4.0Turbo,在七大核心能力上更是全面超越GPTThera:图片超分辨率模型
Thera是一款基于深度学习的图片超分辨率模型。它能够通过学习低分辨率图像与高分辨率图像之间的映射关系,将模糊或低分辨率的图像转换为清晰、高分辨率的图像,简单理解就是免费提升图片清晰度。与传统的图像放大方法不同,Thera采用了更为先进的算法和模型结构,实现了更高质量的图像重建。
0
0