什么是 Flux.1?

Flux.1 是由 Stable Diffusion 的开发成员创立的 Black Forest Labs 推出的图像生成模型。
不仅单纯是“高性能版”,在架构方面也是巨大转折点的模型。

  • 图像生成的核心,从传统的 UNet 替换为了 Transformer(DiT)基础
  • 作为文本编码器,采用了 T5 系的 LLM

通过这个组合,变得能从大规模的数据集高效地学习,
变得容易原样活用 LLM 的文章理解力,成为了通往现在主流的图像生成模型群的分歧点。

Flux.1 有 3 个变体。

  • Flux.1 pro
    • 仅能通过 API 利用的版本,未公开模型权重。
  • Flux.1 dev
    • 蒸馏了 pro 的研究・验证用模型。在本地环境最常使用的是这个。
  • Flux.1 schnell
    • 进一步蒸馏了 dev 的模型,以 Apache-2.0 这个比较宽松的许可证公开。

模型的下载

这里使用 dev / schnell 的 fp8 版。


text2image - Flux.1 [dev]

flux1-dev.json

Flux.1 dev / schnell 是 蒸馏了固定 CFG 为 1.0 状态的模型。 因此,不像传统的 Stable Diffusion 那样以 CFG scale 和 Negative Prompt 的调整为前提,Negative Prompt 完全不生效

我将 Negative 侧的提示词留空了,但其他工作流中也有代替 Negative 用的 CLIP Text Encode 节点,插入 ConditioningZeroOut 节点的。

无论哪种情况,Negative 侧的条件会被乘 0,所以写什么都不会影响输出


text2image - Flux.1 [schnell]

是进一步蒸馏了 Flux.1 [dev] 的东西,可以用 4〜6 步生成图像。

flux1-schnell.json
  • steps 设为 4〜6。

LoRA - Flux.1 [dev]

试用一下提高肖像画质量的 LoRA 吧。

flux1-dev_lora.json
  • 🟪 在 LoRA 中也写了,Flux 以后不再学习文本编码器,所以不使用 Load LoRA 节点,使用 仅适用于权重的 LoraLoaderModelOnly 节点。

ControlNet - Flux.1 [dev]

Flux.1 用的 ControlNet 模型也公开了几个,这里以 Union 型模型为例介绍。

模型的下载

  • 📂ComfyUI/
    └── 📂models/
        └── 📂controlnet/
            └── FLUX.1-dev-ControlNet-Union-Pro-2.0-fp8.safetensors
    

工作流

ControlNet-Union 将多个代表性的 ControlNet 内置在 1 个模型中。

FLUX.1-dev-ControlNet-Union-Pro_depth.json
  • 🟩 只是在使用了 Flux 的 image2image 工作流中插入了 ControlNet。

    • 虽说是 image2image 但 denoise 是 1.0,所以举动几乎和 text2image 一样。
    • 因为可以用很少的节点制作与输入图像相同尺寸的图像,所以我常使用这个形式。
  • 🟩 在 SetUnionControlNetType 中,输入想使用的 ControlNet 类型。

    • 基本上 auto 就没问题。

GGUF(轻量化 Flux.1)

最后,稍微提一下 GGUF 版 Flux.1

原本 GGUF 是为了轻量化 LLM 的格式(被量化的权重形式), 通过将其应用到 Flux.1,可以 在减少 VRAM 使用量的同时,以相应的速度运转

自定义节点

模型的下载

根据性能和模型尺寸的平衡,有几个变体。 请配合 PC 规格和用途选择。

  • 📂ComfyUI/
    └── 📂models/
        └── 📂unet/
            └── flux1-dev.gguf
    

工作流

FLUX.1-dev-gguf.json
  • 🟪 将 Load Diffusion Model 节点替换为 Unet Loader (GGUF) 节点。

  • 其他 CLIP / T5 / VAE 部分保持原样。

    • 虽然也可以把 T5 换成 GGUF,但体感上没有那么大的效果。

现在的许多模型都准备了 GGUF 版。 使用 GGUF 几乎没有缺点,所以在 VRAM 不足时请积极尝试。