一、nunchaku Kontext介绍
开源生态速度就是快啊,Kontext刚开源没几天,各种模型、lora、以及加速模型都来了,今天介绍的是我们熟悉的双截棍Nunchaku,也支持了Kontext了,我第一时间就去更新测试了,真的爽,10秒出图,显存占用16G。
测试了一些数据,发现效果没差多少,速度快了几倍,还是很爽的,废话不多少说,带大家来安装体验最新的Nunchaku。
二、相关安装
以前安装Nunchaku0.2或者Nunchaku0.3版本都要卸载重新安装最新版:Nunchaku0.3.1(版本号,目前最新的就是 3.1 了)
插件地址:https://github.com/mit-han-lab/comfyui-nunchaku
轮子安装:
https://modelscope.cn/models/Lmxyy1999/nunchaku/files
comfyui环境:torch2.7和python 3.12,我下载的是 nunchaku-0.3.1+torch2.7-cp312-cp312-win_amd64.whl
nunchaku-0.3.1+torch2.7(Python 版本)-cp312(Python 版本)-cp312-win(操作系统,win/linux)_amd64.whl 大家根据自己的环境下载对应的版本即可
放到comfyUI的python目录下,进入命令窗口执行:
python.exe -m pip install nunchaku-0.3.1-torch2.7-cp312-cp312-win_amd64.whl
到此,环境就安装好了。
模型下载:
这次的模型有2个
- svdq-fp4_r32-Flux.1-kontext-dev.safetensors :50系列使用
- svdq-int4_r32-flux.1-kontext-dev.safetensors:50以下系列使用
kontext模型安装路径: models/diffusion_models
CLIP、VAE模型与Flux一致,可重用本地已有模型。
三、使用教程与体验
使用方式:工作流与官方默认方式几乎一致,只需将原先的「UNet 加载器」替换为「Nunchaku FLUX DiT Loader」即可无缝运行。
工作流直接使用kontext即可无缝衔接加速,工作流接入Nunchaku示例:
常见问题:踩坑指南:
1. 安装失败或依赖冲突 问题:安装Nunchaku wheel时出现错误 解决方案: 确保使用正确版本的wheel文件(匹配你的Python和PyTorch版本) 完全卸载之前的Nunchaku和相关依赖 使用ComfyUI Portable避免系统环境冲突
2. 找不到Nunchaku节点 问题:安装后ComfyUI中没有Nunchaku节点 解决方案: 确认ComfyUI-nunchaku插件正确安装在custom_nodes目录 检查Nunchaku后端是否正确安装 重启ComfyUI 检查控制台输出是否有错误信息
3. 生成速度没有明显提升 问题:使用Nunchaku后生成速度仍然很慢 解决方案: 确保使用Nunchaku优化的模型文件(svdq-int4或svdq-fp4版本) 检查GPU架构,RTX 30/40系列主要通过减少VRAM使用提升效率 尝试减少采样步数,Nunchaku在较少步数下就能获得高质量结果
4. 图像质量下降 问题:使用Nunchaku后图像质量不如预期 解决方案: 确保使用正确的模型版本(Blackwell GPU使用fp4版本,其他GPU使用int4版本) 调整cfg值,Nunchaku对高cfg值不太敏感 尝试增加采样步数或使用不同的采样器