ComfyUI&SD通用Flux模型LoRA权重多版本下载合集

ComfyUI&SD通用Flux模型LoRA权重多版本下载合集

ComfyUI&SD通用Flux模型LoRA权重多版本下载合集

问君能有几多愁,恰似Flux的5大模型3大插件3小模型下载地址整理!

AI真的是普通人越来越难玩了,怎么现在下载个模型都这么复杂,不同FP要对应不同的模型,不同的模型要对应不同的衍生小模型。

最最可恶的是,人家官方免费提供的模型,网上这些居然要求收费下载?要么就是让你必须进群才发下载地址,你比人家Apache-2.0的开源协议都牛逼。

Flux介绍

Flux 是由 Black Forest Labs(前 Stable Diffusion 核心成员创立)开发的 AI 图像生成模型,凭借其混合架构和先进技术,在文字生成、细节渲染等方面表现突出。以下是关键信息整理:


模型简介

核心特性与技术优势

  • 架构创新:采用 混合多模态+并行扩散变换器 架构,参数规模达 120 亿,结合流匹配(flow matching)技术提升训练效率。
  • 文字生成能力:相比 Stable Diffusion,Flux 在图片中生成 清晰可读文字 的能力显著提升,尤其擅长复杂排版场景。
  • 硬件效率:通过旋转位置嵌入和并行注意力层优化,支持 16GB+ VRAM 的硬件配置,生成速度较快(如 Schnell 版本)。
  • 分辨率灵活性:支持 0.1-2.0 兆像素 的多种宽高比,适应性更强。

版本与适用场景

Flux 提供三个版本:

  • Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
  • Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究。
  • Pro(专业版,闭源 API):商业级性能,适用于企业级高精度需求。

Flux 与 Stable Diffusion 的对比

特性 Flux Stable Diffusion
文字生成 更清晰、可读性高 易出错,需额外插件优化
分辨率支持 0.1-2.0 兆像素灵活适配 依赖版本,部分限制较多
硬件需求 16GB+ VRAM(推荐 24GB+) 6GB+ VRAM 可运行
多视图一致性 通过 ControlNet 实现骨骼姿势控制 需手动调整或插件辅助

应用场景

  • 设计领域:生成高精度广告素材、品牌设计图,支持风格定制(如赛博朋克、日系萌系)。
  • 游戏开发:结合多视图生成技术,快速创建角色三视图原型,提升开发效率。
  • 教育科研:用于 AI 绘图教学,通过参数调整(如随机种子、步数)帮助理解生成逻辑。

集成与使用

  • ComfyUI 支持:用户可通过下载模型文件(如 FP8 单文件版本)和配置文本编码器,在 ComfyUI 中搭建工作流。
  • 车厘子工作室:提供免费调用 Flux Schnell 模型的功能,适合教学和快速原型设计。

Flux 凭借其 高性能架构易用性,成为 AI 图像生成领域的新标杆,尤其适合需要高精度文字、多视图一致性的场景。开发者可通过 ComfyUI 等工具灵活部署,而普通用户也能通过开源版本快速体验其能力。

相关链接

模型官网

Black Forest Labs – Frontier AI Lab

Github

https://github.com/black-forest-labs/flux

API文档

BFL Docs

什么是FP?

先说人话,后面的你可以看看不都行,如果你想的电脑或服务器性能比较好,显示的显存在16GB以上,内存在64GB以上,那你就下载FP16版本的,这样可以获得最好的绘画效果。

如果你电脑显存在8G以上,内存在32GB以上,那推荐你下载FP8版本。

如果你的电脑8G显存都不到,那你就下载GGUF版本吧。

但GGUF还有多个分支,比如Q2|Q3|Q4|Q5|Q6|Q8,虽然有FP4版本,但更推荐你下载GGUF版本。值得注意的是,这里的Q8和FP8差不多,但速度不如FP8,那为么还要选择Q8?因为这个版虽然速度慢,但效果更加可控且稳定,效果更好,官方也推荐低显存的用这个版本,更有前途。


我们先来了解一下基础知识,模型下载时能够看到分为FP16FP8FP4GGUF等,这些其实就是模型的量化,其中FP16需要的系统资源最大,其它依次递减,值得单独一说的是GGUFGGUF是通过量化技术缓存优化提升加载速度,尤其在大模型推理中表现突出。

术语 全称/说明 所属框架/标准
FP16 NVIDIA 的 半精度浮点数(Half-Precision Floating Point),等同于 FP16。支持 GPU Tensor Core 加速。 NVIDIA CUDA
FP8 NVIDIA 的 低精度浮点数(8-bit Floating Point),精度低于 FP16,但内存占用减半。部分场景需配合 INT8 混合精度使用。 NVIDIA CUDA
FP4 NVIDIA 的 超低精度浮点数(4-bit Floating Point),精度更低,内存占用仅为 FP16 的 1/4。通常用于推理阶段或特定加速场景。 NVIDIA CUDA(实验性支持)
GGUF Stability AI 开发的 混合精度存储格式,专为 GPU Tensor Core 设计,兼容 FP16/FP8 权重+FP8 激活,优化内存占用与计算效率。 Stable Diffusion/GPT 等模型

内存占用

  • FP16 : 占 FP32 的 1/2 → 适合大模型(如 7B 参数以上)部署。
  • FP8 : 占 FP32 的 1/4 → 进一步压缩内存,但需权衡精度。
  • FP4 : 占 FP32 的 1/8 → 极致压缩,仅适用于对精度要求不高的场景。
  • GGUF : 动态混合精度(权重 FP16/FP8 + 激活 FP8),内存占用接近 FP8/FP4,但灵活性更高。

计算效率

  • FP16/FP8/FP4 : 直接利用 GPU 的 Tensor Core 加速矩阵运算,性能接近 FP32。
  • GGUF : 通过 量化技术 和 缓存优化 提升加载速度,尤其在大模型推理中表现突出。

精度损失

格式 数值范围 适用场景
FP32 ±1e308 精确计算(如科学模拟、高精度图像生成)
FP16 ±65536 平衡精度与性能(Stable Diffusion 默认)
FP8 ±128 快速推理(需权衡精度,如文本生成)
FP4 ±5.96e-3 极端压缩场景(需验证精度容忍度)

文件体积

  • FP32: 最大 → 占用约 8GB/10B 参数。
  • FP16: 约 4GB/10B 参数。
  • FP8/FP4: 约 1-2GB/10B 参数(具体依模型结构而定)。
  • GGUF: 类似 FP8/FP4,但文件体积可能略小(因优化编码)。

基础模型

注意,无论你使用下面哪个模型,都是需要VAE模型和CLIP模型的,这是必须要下载的,你可以理解为这是配套设施,只下载基础模型是无法使用的。

无论你想下载两个模型,你都能看到有Dev和Schnell这两个版本可以选择,关于这两个模型的区别上面已经说了,但为了防止没有耐心的人不看,所以这里再说一下有什么区别,如果你的硬件不是特别差,那就整个Dev版本的。

  • Schnell(快速版,Apache 2.0 开源):适合个人用户快速生成,对提示词要求较低。
  • Dev(开发版,非商业许可):开源版本,支持社区定制和学术研究,效果比Schnell版本要好。

FP16-官方版

以下是官方版的FP16大模型,显存需要16GB以上,内存需要64GB以上,对硬件要求苛刻,效果极佳,但速度较慢,需要额外下载VAE模型,VAE的下载地址在后面。

flux1-Dev.safetensors

文件说明Dev-FP16
文件大小22.17GB
文件格式Safetensors

flux1-schnell.sft

文件说明Schnell-FP16
文件大小22.15GB
文件格式SFT

下载后的模型存放位置:ComfyUlmodelsunet

FP8-ComfyUI版

如果你的设备显存在8GB以上,内存在32GB以上,可以使用该模型。

flux1-dev-fp8-org.safetensors

文件说明Dev-FP8
文件大小16.06GB
文件格式Safetensors

flux1-schnell-fp8-org.safetensors

文件说明Schnell-FP8
文件大小16.05GB
文件格式Safetensors

注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUlmodelscheckpoints

FP8-Kijia版

虽然这个也不错,但如果你想下载FP8版本,还是推荐下载上面ComfyUI版的FP8。

flux1-dev-fp8.safetensors

文件说明Dev-FP8
文件大小11.08GB
文件格式Safetensors

flux1-schnell-fp8.safetensors

文件说明Schnell-FP8
文件大小11.07GB
文件格式Safetensors

下载后的模型存放位置:ComfyUlmodelsunet

NF4-张吕敏版(量化模型)

个人觉得不太好用,所以没有下载到网盘,感兴趣且有条件的用户可以自行【点击此处】前往拥抱脸下载。

名称 类型 大小 格式
flux1-dev-bnb-nf4-unet.safetensors Dev-NF4 6.14GB Safetensors
flux1-dev-bnb-nf4-v2-unet.safetensors Dev-NF4-V2 6.7GB Safetensors
flux1-schnell-bnb-nf4-unet.safetensors Schnell-NF4 6.14GB Safetensors
flux1-schnell-bnb-nf4-v2-unet.safetensors Schnell-NF4-V2 6.69GB Safetensors

注意:使用该版本需要NF4的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUlmodelscheckpoints

GGUF(量化模型)

官方已不推荐使用NF4|FP4,如果你想下载FP4类型的模型,那么推荐直接下载GGUF版本的Q4。

下面模型中,Q4对应的就是量化后的FP4,Q8就是量化后的FP8,虽然速度上不如直接使用FP8,但是稳定,对硬件的要求低。

flux1-dev-Q8_0.gguf

文件说明Dev-Q8-0
文件大小11.84GB
文件格式GGUF

flux1-dev-Q6_K.gguf

文件说明Dev-Q6-K
文件大小9.18GB
文件格式GGUF

flux1-dev-Q5_1.gguf

文件说明Dev-Q5-1
文件大小8.39GB
文件格式GGUF

flux1-dev-Q5_K_S.gguf

文件说明Dev-Q5_K_S
文件大小7.72GB
文件格式GGUF

flux1-dev-Q5_0.gguf

文件说明Dev-Q5_0
文件大小7.70GB
文件格式GGUF

flux1-dev-Q4_K_S.gguf

文件说明Dev-Q4_K_S
文件大小6.34GB
文件格式GGUF

flux1-dev-Q4_1.gguf

文件说明Dev-Q4_1
文件大小7.01GB
文件格式GGUF

flux1-dev-Q4_0.gguf

文件说明Dev-Q4_0
文件大小6.32GB
文件格式GGUF

flux1-dev-Q3_K_S.gguf

文件说明Dev-Q3_K_S
文件大小4.87GB
文件格式GGUF

flux1-dev-Q2_K.gguf

文件说明Dev-Q2_K
文件大小3.76GB
文件格式GGUF

注意:使用该版本需要GGUF的特殊配套插件【点此前往】,张吕敏版还需要下载本文后面的VAECLIP-LT5XXL模型。

下载后的模型存放位置:ComfyUlmodelsunet

为什么Q4和Q5存在多个后缀?我应该下载哪一个?下面是详细的解释,如果你看不懂也没关系,随便下载一个就行,都差不太多。

Flux绘画模型存在多个Q4、Q5等版本的后缀,主要与量化技术、优化策略及显存适配相关。以下是不同后缀的常见含义及区别:

  1. 量化级别(Q+数字)后缀中的Q4Q5等表示量化参数版本。例如:
    • Q4_0Q4_1:同一量化级别(Q4)的不同优化迭代版本,可能通过调整量化精度或算法进一步降低显存占用。
    • Q8_0:更高量化级别,显存需求更大(如12.7 GB),但生成质量可能更优。
  2. 量化策略(K/S等字母组合)后缀中的KS等字母可能代表特定量化策略:
    • K_S:结合K-means聚类和稀疏量化技术,显存占用更低(如Q4_K_S为6.81 GB),适合低显存设备。
    • K:单独使用K-means量化,平衡显存与质量。
  3. 模型架构差异部分版本(如F16)可能基于FP16精度开发,而Q系列为GGUF量化格式,两者在存储效率和加载速度上有差异。

后缀通过数字、字母组合区分量化技术、优化版本及硬件适配性,用户可根据显存容量(如6G显存选Q4_K_S,12G以上可选Q8_0)和生成需求选择合适版本。

VAE模型

只要你使用了Flux模型,那么基本都是需要VAE文件的,所以不用管自己下载的什么版本,直接下载VAE文件。

ae.sft

文件说明VAE
文件大小319.77
文件格式SFT

下载后的模型存放位置:ComfyUlmodelsvae

Clip模型

如果你的硬件比较好,那就下载clip_l和t5xxl_fp16这两个模型。

如果你的硬件条件一般,那就下载clip_l和t5xxl_fp8_e4m3fn这两个模型。

几乎所有基础模型都是需要Clip模型的,解释来解释去的,反而容易乱,反正模型也不大,建议无脑全部下载吧。

clip_l.safetensors

文件说明L
文件大小234.74MB
文件格式Safetensors

t5xxl_fp8_e4m3fn.safetensors

文件说明FP8
文件大小4.56GB
文件格式Safetensors

t5xxl_fp16.safetensors

文件说明FP16
文件大小9.12GB
文件格式Safetensors

下载后的模型存放位置:ComfyUlmodelsclip

工作流

本站也提供了配套的各项工作流给大家,如果有需要,可以按需下载。

注意:该套工作流和模型需要相应的插件,插件在本文末尾可以找到。

FP8文生图+LoRA.json

文件大小11.22KB
文件格式JSON

GGUF文生图.json

文件大小11.80KB
文件格式JSON

NF4文生图.json

文件大小10.73KB
文件格式JSON

官方文生图+ControlNet深度.json

文件大小14.24KB
文件格式JSON

官方文生图+ControlNet硬边缘.json

文件大小14.21KB
文件格式JSON

官方文生图+ControlNet软边缘.json

文件大小14.35KB
文件格式JSON

官方文生图+IPAdapter风格迁移.json

文件大小13.78KB
文件格式JSON

官方文生图+Lora(完整版).json

文件大小13.43KB
文件格式JSON

官方文生图+Lora(简化版).json

文件大小12.13KB
文件格式JSON

LoRA

部分工作流中是存在LoRA节点的,如果你不想下载LoRA模型,可以屏蔽工作流中关于LoRA的节点。

下载后的模型存放位置:ComfyUlmodelsxlabsloras

F.1-超写实逼真黑悟空-支持在线生图.Safetensors

提取密码文件说明孙悟空文件大小584.36MB文件格式Safetensors资源价格免费下载次数26

LoRA.rar

提取密码文件说明通用版文件大小464.43MB文件格式RAR资源价格免费下载次数23

LoRA_ComfyUI.rar

文件说明ComfyUI
文件大小399.63MB
文件格式RAR

各压缩包内LoRA模型详细信息如下:

LoRA.rar
├─anime_lora.safetensors
├─art_lora.safetensors
├─disney_lora.safetensors
├─furry_lora.safetensors
├─mjv6_lora.safetensors
├─realism_lora.safetensors
└─scenery_lora.safetensors
LoRA_ComfyUI.rar
├─anime_lora_comfy_converted.safetensors
├─art_lora_comfy_converted.safetensors
├─disney_lora_comfy_converted.safetensors
├─mjv6_lora_comfy_converted.safetensors
├─realism_lora_comfy_converted.safetensors
└─scenery_lora_comfy_converted.safetensors

ComfyUI插件

你可能在使用模型或加载同坐流时遇到如下报错提示,这是因为你还没有安装相应的插件。

如果你打算使用NF4或张吕敏版本的模型,那么这里有一项特殊操作,你需要打开ComfyUI的终端,在终端中执行bitsandbytes>=0.43.0,否则无法加载工作流和模型,会持续报错。如果你不打算使用NF4或张吕敏版本的模型,那么可以忽略此步骤。

comfyui_controlnet_aux-main.zip

文件大小41.39MB
文件格式ZIP

gguf-main.zip

文件大小90.83KB
文件格式ZIP

ComfyUI-GGUF-main.zip

文件大小29.74KB
文件格式ZIP

x-flux-comfyui-main.zip

文件大小1.58MB
文件格式ZIP

iP-Adapter

此为视觉模型,按需下载。

clip_vision_l.safetensors

模型位置ComfyUlmodelsclip_vision
文件大小1.59GB
文件格式Safetensors

flux-ip-adapter.safetensors

模型位置ComfyUlmodelsxlabsipadapters
文件大小936.28MB
文件格式Safetensors

Controlnet

下载后的模型存放位置:ComfyUlmodelsxlabsControlnets

flux-canny-controlnet-v3.safetensors

文件大小1.39GB
文件格式Safetensors

flux-depth-controlnet-v3.safetensors

文件大小1.39GB
文件格式Safetensors

flux-hed-controlnet-v3.safetensors

文件大小1.39GB
文件格式Safetensors

Flux模型更新|2024-11-21

懒的整理了,直接打包发出来吧。

2024-11-21

大小69.7GB
文件格式FILES

下载后的文件目录如下:

2024-11-21
├─Flux-工作流全.json
├─深度+线稿lora
│ ├─flux1-canny-dev-lora.safetensors
│ └─flux1-depth-dev-lora.safetensors
├─深度+线稿大模型
│ ├─flux1-canny-dev.safetensors
│ └─flux1-depth-dev.safetensors
├─重绘大模型
│ └─flux1-fill-dev.safetensors
└─风格模型
├─flux1-redux-dev.safetensors
└─sigclip_vision_patch14_384.safetensors

ComfyUI对应的模型路径如下:

ComfyUI
├─models
│ └─clip_vision
│  └─sigclip_vision_patch14_384.safetensors
│ └─syle_models
│  └─flux1-redux-dev.safetensors
│ └─lora
│  ├─flux1-canny-dev-lora.safetensors
│  └─flux1-depth-dev-lora.safetensors
│ └─unet
│  └─flux1-fill-dev.safetensors
│  ├─flux1-canny-dev.safetensors
│  └─flux1-depth-dev.safetensors

总结

太太太太太繁琐了,可能个别地方没写清楚,不明白的地方可以留言提问。

阅读剩余