Comfyui常用必备模型,吐血整理~(含网盘下载链接)

一、checkpoints大模型

1、SD1.5版本大模型

1.SD1.5官方基础大模型:v1-5-pruned-emaonly.safetensors

出图效果差,一般不用来作图。主要用来模型训练、模型融合,出图演示。

2. SD1.5官方基础大模型:v1-5-pruned.ckpt

3. SD1.5官方基础修复大模型:sd-v1-5-inpainting.ckpt

4. 写实大模型:

realisticVisionV51_v51VAE.safetensors

Realistic_Vision_V5.1-inpainting.safetensors修复版本

较火的写实模型,制作真是照片效果。

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

5 .适合动漫风格的大模型

模型地址:revAnimated_v122EOL.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

6.国风大模型

模型地址:3Guofeng3_v34.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

7.Dreamshape LCM大模型

模型地址:LCM_Dreamshaper_v7_4k.safetensors

LCM全称Latent Consistency Models(潜在一致性模型),可以通过几步推理合成高分辨率图像。

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

8.迪士尼皮克斯风格大模型

模型地址:disneyPixarCartoon_v10.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

9.麦橘写实大模型

模型地址:majicmixRealistic_v7.safetensors

适合制作亚洲漂亮女孩图片。

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

10.美娜混合大模型

模型地址:meinamix_meinaV11.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

11 虚幻写实大模型

模型地址:dreamshaper_8.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

12.万象熔炉大模型

模型地址:AnythingXL_v50.safetensors

适合制作二次元图像。

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

2、SDXL版本大模型

1.SDXL10官方基础模型

模型地址:sd_xl_base_1.0.safetensors

出图效果差,一般不用来作图。主要用来模型训练、模型融合,出图演示。

2.SDXL10官方refiner模型

模型地址:sd_xl_refiner_1.0.safetensors

官方sd_xl_base_10safetensors模型配套的refiner,主要用来演示操作。后续的SDXL基本不需要使用refiner模型。

3.SDXL写实大模型

模型地址:realvisxlV40_v40Bakedvae.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

4.SDXL turbo模型

模型地址:sd_xl_turbo_1.0_fp16.safetensors

Turbo模型 是一种快速生成文本到图像的模型。

5.SDXL lightning模型

模型地址:sdxl_lightning_4step.safetensors

SDXL-Lightning 是一种闪电般快速的文本到图像生成模型。它可以通过几个步骤生成高质量的 1024px 图像。

6.巨无霸写实模型V8

模型地址:juggernautXL_v8Rundiffusion.safetensors

巨无霸写实模型V9:juggernautXL_v9Rundiffusionphoto2.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

7.亚洲人像模型

模型地址:sdxl10ArienmixxlAsian_v45Prunedsafetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

8.动漫主题模型

模型地址:animagineXLV31_v31.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

9.虚幻写实大模型:

模型地址:dreamshaperXL_lightningDPMSDE.safetensors

模型地址:dreamshaperXL_alpha2Xl10.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

3、SD3.0版本大模型

官方SD3大模型

模型地址:sd3_medium.safetensors

不含文本编码器,仅包含 MMDiT 和 VAE 权重,SDNext将根据需要自动加载 CLiP 模型

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

4、SD Audio版本模型

音频生成模型

模型地址:https://pan.baidu.com/s/1EhB6QE4epY-NgzyTiYjUFg?pwd=3jif

5、FLUX版本大模型

模型地址:FLUXdev 压缩版本:flux1-dev-fp8.safetensors

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

二、Unet模型

1、SD15版本Unet模型

2、SDXL版本Unet模型

3、FLUX版本Unet模型

模型地址:flux1-dev.safetensors

模型地址:flux1-fill-dev.safetensors

三、VAE模型

1、SD15版本VAE模型模型地址:

  1. vae-ft-ema-560000-ema-pruned.ckpt
  2. vae-ft-mse-840000-ema-pruned.ckpt
  3. color101VAE_v1.safetensors
  4. vae-original.ckpt
  5. 适合漫画风格的VAE:kl-f8-anime2.ckpt

2、SDXL版本VAE模型模型地址:

SDXL官方配套VAE模型

  1. SDXL官方配套VAE模型:sdxl_vae.safetensors
  2. vae_transparent_decoder.safetensors

3、FLUX版本VAE模型

模型地址:ae.safetensors

4、其他VAE模型

通义万相WAN模型配套VAE模型地址:wan_2.1_vae.safetensors

四、Clip文本编码模型

五、clip_vision图像编码模型

六、LoRA模型

1、SD15版本LoRA模型

2、SDXL版本LoRA模型

1.lightningLoRA模型:sdxl_lightning_4step_lora.safetensors

SDXL-Lightning 是一种闪电般快速的文本到图像生成模型。它可以通过几个步骤生成高质量的 1024px 图像

2.neo_icon.safetensors

3.cutedoodle_XL-000012.safetensors

4.outdoor-product-photography-SDXL.safetensors

5.xl_more_art-full_v1.safetensors

6.Designer_BlindBox-000015.safetensors

7.detailed.safetensors

3、FLUX版本LoRA模型

1.Brand_Marks_-_Logo_Icon_Symbol.safetensors

2.cartoon_logo_flux_lora.safetensors

3.CuteLogoMaker.safetensors

4.Graffiti_Logo_Style_Flux.safetensors

5.logomaker1024-000008.safetensors

6.VibrantTech3D_v1.safetensors

7.CharacterDesign-FluxV2.safetensors

8.FluxMythP0rtr4itStyle.safetensors

9.aidmaRealisticPeoplePhotograph-FLUX-V0.2.safetensors

10.OB拍立得人像摄影Instant camera portrait photography V2.0.safetensors

11.zyd232_Hanfu_Flux1D_Ming_PiFeng_v1_0.safetensors

七、IC-LoRA模型

In-Context LoRA(IC-LoRA)的核心概念是将条件图像和目标图像拼接成一张合成图像,同时使用自然语言来定义任务。这种方法可以无缝适应各种应用。

1、SD15版本IC-LoRA模型

2、SDXL版本IC-LoRA模型

3、FLUX版本IC-LoRA模型

Migration_Lora_cloth.safetensors功能:持续的衣物迁移 高精度地在参考图像之间传递服装风格。

八、LyCORIS模型

1、SD15版本LyCORIS模型

微缩世界LyCORIS模型:miniature_V1.safetensors

九、Embedding嵌入式模型

1、SD15版本Embedding模型

负嵌入Embedding:EasyNegative.safetensors

使用率极高的一款负面提示词 embedding 模型,可以有效提升画面的精细度。适合动漫大模型。

2 负嵌入Embedding:ng_deepnegative_v1_75t.pt

适合实写大模型

3 正嵌入年龄滑块Embedding:

  1. AS-Adult.pt
  2. AS-Adult-neg.pt
  3. AS-Elderly.pt
  4. AS-MidAged.pt
  5. AS-YoungerV2.pt
  6. AS-YoungestV2.pt
  7. AS-YoungV2.pt
  8. AS-YoungV2-neg.pt

十、Hypernetwork超网络模型

1、SD15版本Hypernetwork模型

  1. 可爱图标:Toru8pWavenChibi_wavenchibiV10b.pt

十一、Controlnet模型

1、SD15版本Controlnet模型

1.重上色Controlnet模型:ioclab_sd15_recolor.safetensors

2. ip-adapter Controlnet模型:ip-adapter_sd15.pth

3. t2iadapterControlnet模型:

4.control_v11e_sd15_ip2p.pth

5.control_v11e_sd15_shuffle.pth

6.control_v11f1e_sd15_tile.pth

7.control_v11f1p_sd15_depth.pth

8.control_v11p_sd15_canny.pth

9.control_v11p_sd15_inpaint.pth

10.control_v11p_sd15_lineart.pth

11.control_v11p_sd15_mlsd.pth

12.control_v11p_sd15_normalbae.pth

13.control_v11p_sd15_openpose.pth

14.control_v11p_sd15_scribble.pth

15.control_v11p_sd15_seg.pth

16.control_v11p_sd15_softedge.pth

17.control_v11p_sd15s2_lineart_anime.pth

2、SDXL版本Controlnet模型

1.control_instant_id_sdxl.safetensors

2.ip-adapter_instant_id_sdxl.bin

3.xinsircontrolnet-openpose-sdxl-1.0.safetensors

4.control-lora-canny-rank256-SDXL.safetensors

5.control-lora-depth-rank256-SDXL.safetensors

6.control-lora-recolor-rank256-SDXL.safetensors

7.control-lora-sketch-rank256-SDXL.safetensors

8.t2i-adapter-canny-sdxl-1.0.safetensors

9.t2i-adapter-depth-midas-sdxl-1.0.safetensors

10.t2i-adapter-depth-zoe-sdxl-1.0.safetensors

11.t2i-adapter-lineart-sdxl-1.0.safetensors

12.t2i-adapter-openpose-sdxl-1.0.safetensors

13.t2i-adapter-sketch-sdxl-1.0.safetensors

14.ip-adapter-plus_sdxl_vit-h.safetensors

15.ip-adapter_sdxl.safetensors

16.CN-anytest_v4-marged.safetensors

3、FLUX版本Controlnet模型

1.ip_adapter.safetensors

2.flux-canny-controlnet-v3.safetensors

3.FLUX.1-dev-Controlnet-Inpainting-Betal.safetensors

4.flux_dev_openpose_controlnet.safetensors

十二、sam模型

1、sam模型

2、sam2模型

Segment Anything Model 2(SAM 2)是解决图像和视频中可提示的视觉分割问题的基础模型。

  1. sam2.1_hiera_large-fp16.safetensors

十三、其他语义分割模型

  1. parsing_parsenet.pth

一个与图像解析或语义分割相关的模型文件,通常用于人体解析、场景解析等任务。它可能是基于 ParseNet 或其他类似架构的预训练模型。

十四、groundingdino模型

十五、GFPGAN模型

十六、Codeformer

  1. codeformer-v0.1.0.pth

十七、面部检测模型

  1. detection_Resnet50_Final.pth

十八、SVD模型

Stable Video Diffusion (SVD) 模型系列,是由 Stability AI 开发的一种基于扩散模型(Diffusion Model)的视频生成模型,能够从单张图像生成高质量的视频。

  1. svd_xt.safetensors
  2. 1.stable-video-diffusion-img2vid-xt-1-1huggingface项目文件包

十九、Zero123模型

Stable Zero123 是由 Stability AI 开发的一种基于 Zero123 技术的图像生成模型,专门用于从单张图像生成高质量的多视角 3D 物体视图

  1. stable_zero123_c.ckpt

二十、layerdiffuse模型

1、SD1.5版本layerdiffuse模型

2、SDXL版本layerdiffuse模型

二十一、antelopev2模型

二十二、brushnet模型

BrushNet 是一种基于扩散的文本引导图像修复模型,可以即插即用地加入任何预训练的扩散模型中。

二十三、Fooocus模型

二十四、IPAdapter模型

1、SD1.5版本IPAdapter模型

2、SDXL版本IPAdapter模型

3、FLUX版本IPAdapter模型

二十五、LaMa模型

基于傅里叶卷积的分辨率稳健大型掩模修复

  1. 1.big-lama.pt

二十六、MAT模型

1.Places_512_FullData_G.pth

二十七、Gligen模型

GLIGEN 在现有的预训练文本到图像扩散模型的基础上构建并扩展其功能,使其能够根据参考输入进行条件生成。

1.gligen_sd14_textbox_pruned.safetensors

二十八、UnCLIP模型

UnCLIP 的主要功能是通过文本描述生成高质量的图像。它结合了 CLIP 的文本-图像对齐能力和扩散模型(Diffusion Model)的图像生成能力,能够生成与文本描述高度匹配的图像

1.sd21-unclip-h.ckpt

二十九、llava模型

1.ggml-model-q4_k.gguf

2.mmproj-model-f16.gguf

三十、wd-v1-4模型与模型字典

  1. 1.wd-v1-4-convnextv2-tagger-v2.onnx

2.wd-v1-4-convnextv2-tagger-v2.csv字典

3.wd-v1-4-moat-tagger-v2.onnx

4.wd-v1-4-moat-tagger-v2.csv字典

三十一、TripoSR模型

TripoSR 是由 Stability AI 和 Tripo AI 合作开发的快速前馈 3D 生成模型。

1.TripoSR-model.ckpt

三十二、AnimateDiff模型

1、Motion modules模型

  1. 1.v3_sd15_mm.ckpt

2、Motion LoRAs模型

  1. 1.v2_lora_PanLeft.ckpt

2.v2_lora_PanRight.ckpt

3.v2_lora_RollingAnticlockwise.ckpt

4.v2_lora_RollingClockwise.ckpt

5.v2_lora_TiltDown.ckpt

6.v2_lora_TiltUp.ckpt

7.v2_lora_ZoomIn.ckpt

8.v2_lora_ZoomOut.ckpt

二十三、Fooocus模型

  1. fooocus_inpaint_headpth
  2. inpaint_v26fooocuspatch

二十四、IPAdapter模型

1、SD15版本IPAdapter模型

  1. ip-adapter_sd15safetensors
  2. ip-adapter_sd15_light_v11bin
  3. ip-adapter_sd15_vit-Gsafetensors
  4. ip-adapter-full-face_sd15safetensors
  5. ip-adapter-plus_sd15safetensors
  6. ip-adapter-plus-face_sd15safetensors

2、SDXL版本IPAdapter模型

  1. ip-adapter_sdxlsafetensors
  2. ip-adapter_sdxl_vit-hsafetensors
  3. ip-adapter-plus_sdxl_vit-hsafetensors
  4. ip-adapter-plus-face_sdxl_vit-hsafetensors

3、FLUX版本IPAdapter模型

二十五、LaMa模型

基于傅里叶卷积的分辨率稳健大型掩模修复

  1. big-lamapt

二十六、MAT模型

  1. Places_512_FullData_Gpth

二十七、Gligen模型

GLIGEN 在现有的预训练文本到图像扩散模型的基础上构建并扩展其功能,使其能够根据参考输入进行条件生成。

  1. gligen_sd14_textbox_prunedsafetensors

二十八、UnCLIP模型

UnCLIP 的主要功能是通过文本描述生成高质量的图像。它结合了 CLIP 的文本-图像对齐能力和扩散模型(Diffusion Model)的图像生成能力,能够生成与文本描述高度匹配的图像

  1. sd21-unclip-hckpt

二十九、llava模型

  1. ggml-model-q4_kgguf

2mmproj-model-f16gguf

三十、wd-v1-4模型与模型字典

  1. wd-v1-4-convnextv2-tagger-v2onnx
  2. wd-v1-4-convnextv2-tagger-v2csv字典
  3. wd-v1-4-moat-tagger-v2onnx
  4. wd-v1-4-moat-tagger-v2csv字典

三十一、TripoSR模型

TripoSR 是由 Stability AI 和 Tripo AI 合作开发的快速前馈 3D 生成模型。

1:TripoSR-modelckpt

三十二、AnimateDiff模型

1、Motion modules模型

  1. v3_sd15_mmckpt

2、Motion LoRAs模型

  1. v2_lora_PanLeftckpt
  2. v2_lora_PanRightckpt
  3. v2_lora_RollingAnticlockwiseckpt
  4. v2_lora_RollingClockwiseckpt
  5. v2_lora_TiltDownckpt
  6. v2_lora_TiltUpckpt
  7. v2_lora_ZoomInckpt
  8. v2_lora_ZoomOutckpt

三十三、InsightFace模型

InsightFace是一个开源的2D&3D深度人脸分析工具箱,主要基于PyTorch和MXNet。

1、inswapper模型

1.inswapper_128.onnx

2、buffalo_l模型

InsightFace 发布的 buffalo_l 面部检测和识别模型

三十四、IC-Light模型

IC-Light全称“Imposing Consistent Light”,是一个操纵图像照明的项目

  1. 1.iclight_sd15_fbc.safetensors

2.iclight_sd15_fc.safetensors

三十五、RMBG模型

RMBG 是我们最先进的背景去除模型,旨在有效地将各种类别和图像类型的前景与背景分开。

1.briaai_rmbg_v1.4.pth

三十六、SUPIR模型

1.SUPIR-v0F.ckpt

模型实操案例:ComfyUI 模糊图像变清晰

三十七、BiRefNet模型

目前较好用的开源可商用背景抠除模型

  1. 1.COD.safetensors一种用于隐蔽目标检测(COD)的预训练模型。

2.DIS.safetensors一种用于二分图像分割(DIS)的预训练模型。

3.DIS-TR_TEs.safetensor.safetensors具有大量数据集的预训练模型。

4.General.safetensors用于一般用例的预训练模型。

5.General-Lite.safetensors用于一般用例的轻量级预训练模型。

6.General-Lite-2K.safetensors用于一般用例的轻量级预训练模型,适用于高分辨率图像。 (最佳分辨率2560x1440).

7.HRSOD.safetensors一种用于高分辨率显著目标检测(HRSOD)的预训练模型。

8.Matting.safetensors一种使用无trimap matting的预训练模型。

9.Portrait.safetensors人物肖像预训练模型。

10.birefnet-v1-lite.onnx

模型实操案例:ComfyUI 一键抠图

三十八、CatVTON模型

1.CatVTON

模型实操案例:ComfyUI 一键换装

三十九、Redux模型

FLUX Redux 是用于生成图像变化的所有 FLUX基础模型的适配器。给定一个输入图像,FLUX Redux 可以重现略有变化的图像,从而可以细化给定的图像。

1.flux1-redux-dev.safetensors

模型实操案例:ComfyUI 一键换装

四十、MODNet模型

MODNet 是一个仅使用 RGB 图像输入的实时人像抠图模型

  1. 1.hivision_modnet.onnx

2.modnet_photographic_portrait_matting.onnx

模型实操案例:ComfyUI 证件照制作

四十一、retinaface模型

离线人脸检测模型

  1. 1.retinaface-resnet50.onnx

四十二、PuLID模型

面部保持技术。Pure and Lightning ID Customization via Contrastive Alignment(通过对比对齐实现 Pure 和 Lightning ID 定制)

1、SD1.5版本PuLID模型

2、SDXL版本PuLID模型

  1. 1.ip-adapter_pulid_sdxl_fp16.safetensors

3、FLUX版本PuLID模型

  1. 1.pulid_flux_v0.9.0.safetensors

四十三、facexlib模型

facexlib是一个基于 pytorch 的面部相关功能库,例如检测、对齐、识别、跟踪、面部恢复工具等。它仅提供推理(不提供训练)。

  1. 1.detection_Resnet50_Final.pth

2.parsing_bisenet.pth

3.parsing_parsenet.pth

四十四、BOPBTL 模型

老照片修复技术

1.BOPBTL checkpoints模型

2.BOPBTL VAE模型

四十五、Florence-2模型

Florence-2 是一种先进的视觉基础模型,它使用基于提示的方法来处理各种视觉和视觉语言任务。Florence-2 可以解释简单的文本提示来执行字幕、对象检测和分割等任务。

1.Florence-2模型

四十六、Dlib模型

人脸检测模型

1.shape_predictor_68_face_landmarks.dat

四十七、Makeup模型

美妆迁移模型

1.mobilenet0.25_Final.pth

2.pytorch_model.bin

3.pytorch_model_1.bin

4.pytorch_model_2.bin

5.resnet50.pth

6.spiga_300wpublic.pt

模型实操案例:ComfyUI 美妆迁移

四十八、LTX-Video 视频模型

LTX-Video 是第一个基于 DiT 的视频生成模型,能够实时生成高质量视频。它以 768x512 的分辨率生成 24 FPS 的视频,速度比观看速度更快。该模型在包含各种视频的大规模数据集上进行训练,可生成内容逼真、内容多样的高分辨率视频。我们为文本转视频以及图像+文本转视频用例提供了模型

  1. ltx-video-2b-v0.9.5.safetensors

模型实操案例:4-39 ComfyUI 文生视频与图生视频

四十九、WAN 视频模型

阿里巴巴旗下开源视频生成模型通义万相模型

1.wan2.1_i2v_720p_14B_fp8_e4m3fn.safetensors

2.wan2.1_t2v_14B_fp8_e4m3fn.safetensors

五十、Depth-Anything-V2模型

五十一、MimicMotion模型

  1. :MimicMotionMergedUnet_1-1-fp16.safetensors

五十二、DWPose模型

1.dw-ll_ucoco_384_bs5.torchscript.pt

2.yolox_l.torchscript.pt

五十三、sonic模型

  1. :模型安装包:sonic模型

下载链接包含以下文件

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

五十四、TopazVideoAI模型

TopazVideoAI模型是用在TopazVideoAI软件中对视频进行放大、细节添加、帧差值等相关视频处理的模型

1.:模型安装包:TopazVideoAI模型

Comfyui常用必备模型,吐血整理~(含网盘下载链接)

五十五、RVM模型

RVM 专为鲁棒的人体视频抠图而设计。与将帧作为独立图像处理的现有神经模型不同,RVM 使用循环神经网络来处理具有时间记忆的视频。RVM 可以在任何视频上实时执行抠图,而无需额外输入。

1.rvm_mobilenetv3_fp16.torchscript

2.rvm_resnet50_fp16.torchscript

模型实操案例:4-45 ComfyUI 视频抠图

五十六、ProPainter模型

ProPainter:改进视频修复的传播和变换器

1.ProPainter.pth

2.raft-things.pth

3.recurrent_flow_completion.pth

温馨提示:本站提供的一切软件、教程和内容信息都来自网络收集整理,仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负,版权争议与本站无关。在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

给TA打赏
共{{data.count}}人
5人已打赏
6 条回复 A文章作者 M管理员
  1. Zero.J

    太好了,可下载👍

  2. violet

    亚洲人像模型的,补一下连接,感谢

  3. kxl
    kxl给作者打赏了¥2
    • ComfyUI教程

      👍👍👍谢谢你的打赏

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索