一、checkpoints大模型
1、SD1.5版本大模型
1.SD1.5官方基础大模型:v1-5-pruned-emaonly.safetensors
出图效果差,一般不用来作图。主要用来模型训练、模型融合,出图演示。
2. SD1.5官方基础大模型:v1-5-pruned.ckpt
3. SD1.5官方基础修复大模型:sd-v1-5-inpainting.ckpt
4. 写实大模型:
realisticVisionV51_v51VAE.safetensors
Realistic_Vision_V5.1-inpainting.safetensors修复版本
较火的写实模型,制作真是照片效果。
5 .适合动漫风格的大模型
模型地址:revAnimated_v122EOL.safetensors

6.国风大模型
模型地址:3Guofeng3_v34.safetensors

7.Dreamshape LCM大模型
模型地址:LCM_Dreamshaper_v7_4k.safetensors
LCM全称Latent Consistency Models(潜在一致性模型),可以通过几步推理合成高分辨率图像。

8.迪士尼皮克斯风格大模型
模型地址:disneyPixarCartoon_v10.safetensors

9.麦橘写实大模型
模型地址:majicmixRealistic_v7.safetensors
适合制作亚洲漂亮女孩图片。

10.美娜混合大模型
模型地址:meinamix_meinaV11.safetensors

11 虚幻写实大模型
模型地址:dreamshaper_8.safetensors

12.万象熔炉大模型
模型地址:AnythingXL_v50.safetensors
适合制作二次元图像。

2、SDXL版本大模型
1.SDXL10官方基础模型
模型地址:sd_xl_base_1.0.safetensors
出图效果差,一般不用来作图。主要用来模型训练、模型融合,出图演示。
2.SDXL10官方refiner模型
模型地址:sd_xl_refiner_1.0.safetensors
官方sd_xl_base_10safetensors模型配套的refiner,主要用来演示操作。后续的SDXL基本不需要使用refiner模型。
3.SDXL写实大模型
模型地址:realvisxlV40_v40Bakedvae.safetensors

4.SDXL turbo模型
模型地址:sd_xl_turbo_1.0_fp16.safetensors
Turbo模型 是一种快速生成文本到图像的模型。
5.SDXL lightning模型
模型地址:sdxl_lightning_4step.safetensors
SDXL-Lightning 是一种闪电般快速的文本到图像生成模型。它可以通过几个步骤生成高质量的 1024px 图像。
6.巨无霸写实模型V8
模型地址:juggernautXL_v8Rundiffusion.safetensors
巨无霸写实模型V9:juggernautXL_v9Rundiffusionphoto2.safetensors

7.亚洲人像模型
模型地址:sdxl10ArienmixxlAsian_v45Prunedsafetensors

8.动漫主题模型
模型地址:animagineXLV31_v31.safetensors

9.虚幻写实大模型:
模型地址:dreamshaperXL_lightningDPMSDE.safetensors
模型地址:dreamshaperXL_alpha2Xl10.safetensors

3、SD3.0版本大模型
官方SD3大模型
不含文本编码器,仅包含 MMDiT 和 VAE 权重,SDNext将根据需要自动加载 CLiP 模型

4、SD Audio版本模型
音频生成模型
模型地址:https://pan.baidu.com/s/1EhB6QE4epY-NgzyTiYjUFg?pwd=3jif
5、FLUX版本大模型
模型地址:FLUXdev 压缩版本:flux1-dev-fp8.safetensors

二、Unet模型
1、SD15版本Unet模型
2、SDXL版本Unet模型
3、FLUX版本Unet模型
模型地址:flux1-fill-dev.safetensors
三、VAE模型
1、SD15版本VAE模型模型地址:
- vae-ft-ema-560000-ema-pruned.ckpt
- vae-ft-mse-840000-ema-pruned.ckpt
- color101VAE_v1.safetensors
- vae-original.ckpt
- 适合漫画风格的VAE:kl-f8-anime2.ckpt
2、SDXL版本VAE模型模型地址:
SDXL官方配套VAE模型
- SDXL官方配套VAE模型:sdxl_vae.safetensors
- vae_transparent_decoder.safetensors
3、FLUX版本VAE模型
模型地址:ae.safetensors
4、其他VAE模型
通义万相WAN模型配套VAE模型地址:wan_2.1_vae.safetensors
四、Clip文本编码模型
- 1.stableDiffusion3SD3_textEncoderClipG.safetensors
- 2.stableDiffusion3SD3_textEncoderClipL.safetensors
- 3.stableDiffusion3SD3_textEncoderT5E4m3fn.safetensors
- 4.t5_base.safetensors
- 5.clip_l.safetensors
- 6.t5xxl_fp8_e4m3fn.safetensors
- 7.clip-vit-large-patch14.safetensors.safetensors
- 8.t5xxl_fp16.safetensors
- 9.umt5_xxl_fp8_e4m3fn_scaled.safetensors
五、clip_vision图像编码模型
- 1.CLIP-ViT-bigG-14-laion2B-39B-b160k.safetensors
- 2. CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
- 3.sigclip_vision_patch14_384.safetensors
- 4. clip_vision_h.safetensors
六、LoRA模型
1、SD15版本LoRA模型
- 1.工笔画风格LoRA:MoXinV1.safetensors
- 2. 盲盒风格LoRA:blindbox_v1_mix.safetensors
- 3. 汉服风格LoRA:https://pan.baidu.com/s/1zIcU8nRzD8ffye4trM0lBA?pwd=i4ey
- 4. 添加细节LoRA:more_details.safetensors
- 5. 霓虹效果LoRA:CyberPunkAI.safetensors
- 6. 龙元素LoRA:dragon_real_base_V1.safetensors
- 7. 科幻风格LoRA:XSArchi_127.safetensors
- 8. 宫崎骏风格LoRA:Miyazaki.safetensors
- 9. 快速生成LoRA:pcm_sd15_smallcfg_2step_converted.safetensors
2、SDXL版本LoRA模型
1.lightningLoRA模型:sdxl_lightning_4step_lora.safetensors
SDXL-Lightning 是一种闪电般快速的文本到图像生成模型。它可以通过几个步骤生成高质量的 1024px 图像
3.cutedoodle_XL-000012.safetensors
4.outdoor-product-photography-SDXL.safetensors
5.xl_more_art-full_v1.safetensors
6.Designer_BlindBox-000015.safetensors
3、FLUX版本LoRA模型
1.Brand_Marks_-_Logo_Icon_Symbol.safetensors
2.cartoon_logo_flux_lora.safetensors
4.Graffiti_Logo_Style_Flux.safetensors
5.logomaker1024-000008.safetensors
6.VibrantTech3D_v1.safetensors
7.CharacterDesign-FluxV2.safetensors
8.FluxMythP0rtr4itStyle.safetensors
9.aidmaRealisticPeoplePhotograph-FLUX-V0.2.safetensors
10.OB拍立得人像摄影Instant camera portrait photography V2.0.safetensors
11.zyd232_Hanfu_Flux1D_Ming_PiFeng_v1_0.safetensors
七、IC-LoRA模型
In-Context LoRA(IC-LoRA)的核心概念是将条件图像和目标图像拼接成一张合成图像,同时使用自然语言来定义任务。这种方法可以无缝适应各种应用。
1、SD15版本IC-LoRA模型
2、SDXL版本IC-LoRA模型
3、FLUX版本IC-LoRA模型
Migration_Lora_cloth.safetensors功能:持续的衣物迁移 高精度地在参考图像之间传递服装风格。
八、LyCORIS模型
1、SD15版本LyCORIS模型
微缩世界LyCORIS模型:miniature_V1.safetensors
九、Embedding嵌入式模型
1、SD15版本Embedding模型
负嵌入Embedding:EasyNegative.safetensors
使用率极高的一款负面提示词 embedding 模型,可以有效提升画面的精细度。适合动漫大模型。
2 负嵌入Embedding:ng_deepnegative_v1_75t.pt
适合实写大模型
3 正嵌入年龄滑块Embedding:
- AS-Adult.pt
- AS-Adult-neg.pt
- AS-Elderly.pt
- AS-MidAged.pt
- AS-YoungerV2.pt
- AS-YoungestV2.pt
- AS-YoungV2.pt
- AS-YoungV2-neg.pt
十、Hypernetwork超网络模型
1、SD15版本Hypernetwork模型
十一、Controlnet模型
1、SD15版本Controlnet模型
1.重上色Controlnet模型:ioclab_sd15_recolor.safetensors
2. ip-adapter Controlnet模型:ip-adapter_sd15.pth
3. t2iadapterControlnet模型:
5.control_v11e_sd15_shuffle.pth
6.control_v11f1e_sd15_tile.pth
7.control_v11f1p_sd15_depth.pth
9.control_v11p_sd15_inpaint.pth
10.control_v11p_sd15_lineart.pth
12.control_v11p_sd15_normalbae.pth
13.control_v11p_sd15_openpose.pth
14.control_v11p_sd15_scribble.pth
16.control_v11p_sd15_softedge.pth
17.control_v11p_sd15s2_lineart_anime.pth
2、SDXL版本Controlnet模型
1.control_instant_id_sdxl.safetensors
2.ip-adapter_instant_id_sdxl.bin
3.xinsircontrolnet-openpose-sdxl-1.0.safetensors
4.control-lora-canny-rank256-SDXL.safetensors
5.control-lora-depth-rank256-SDXL.safetensors
6.control-lora-recolor-rank256-SDXL.safetensors
7.control-lora-sketch-rank256-SDXL.safetensors
8.t2i-adapter-canny-sdxl-1.0.safetensors
9.t2i-adapter-depth-midas-sdxl-1.0.safetensors
10.t2i-adapter-depth-zoe-sdxl-1.0.safetensors
11.t2i-adapter-lineart-sdxl-1.0.safetensors
12.t2i-adapter-openpose-sdxl-1.0.safetensors
13.t2i-adapter-sketch-sdxl-1.0.safetensors
14.ip-adapter-plus_sdxl_vit-h.safetensors
15.ip-adapter_sdxl.safetensors
16.CN-anytest_v4-marged.safetensors
3、FLUX版本Controlnet模型
2.flux-canny-controlnet-v3.safetensors
3.FLUX.1-dev-Controlnet-Inpainting-Betal.safetensors
4.flux_dev_openpose_controlnet.safetensors
十二、sam模型
1、sam模型
2、sam2模型
Segment Anything Model 2(SAM 2)是解决图像和视频中可提示的视觉分割问题的基础模型。
十三、其他语义分割模型
一个与图像解析或语义分割相关的模型文件,通常用于人体解析、场景解析等任务。它可能是基于 ParseNet 或其他类似架构的预训练模型。
十四、groundingdino模型
十五、GFPGAN模型
- 1.GFPGANv1.4.pth
- 2.codeformer-v0.1.0.pth
- 3.GFPGANv1.3.pth
- 4.GPEN-BFR-512.onnx
- 5.GPEN-BFR-1024.onnx
- 6.GPEN-BFR-2048.onnx
十六、Codeformer
十七、面部检测模型
十八、SVD模型
Stable Video Diffusion (SVD) 模型系列,是由 Stability AI 开发的一种基于扩散模型(Diffusion Model)的视频生成模型,能够从单张图像生成高质量的视频。
- svd_xt.safetensors
- 1.stable-video-diffusion-img2vid-xt-1-1huggingface项目文件包
十九、Zero123模型
Stable Zero123 是由 Stability AI 开发的一种基于 Zero123 技术的图像生成模型,专门用于从单张图像生成高质量的多视角 3D 物体视图
二十、layerdiffuse模型
1、SD1.5版本layerdiffuse模型
- 1.layer_sd15_fg2bg.safetensors
- 2.layer_sd15_joint.safetensors
- 3.layer_sd15_vae_transparent_decoder.safetensors
2、SDXL版本layerdiffuse模型
- 1.layer_xl_bg2ble.safetensors
- 2.layer_xl_bgble2fg.safetensors
- 3.layer_xl_fg2ble.safetensors
- 4.layer_xl_fgble2bg.safetensors
- 5.layer_xl_transparent_attn.safetensors
- 6.layer_xl_transparent_conv.safetensors
二十一、antelopev2模型
二十二、brushnet模型
BrushNet 是一种基于扩散的文本引导图像修复模型,可以即插即用地加入任何预训练的扩散模型中。
- 1.random_mask.safetensors
- 2.segmentation_mask.safetensors
- 3.diffusion_pytorch_model.safetensors对应的配置文件:config.json
二十三、Fooocus模型
二十四、IPAdapter模型
1、SD1.5版本IPAdapter模型
- 1.ip-adapter_sd15.safetensors
- 2.ip-adapter_sd15_light_v11.bin
- 3.ip-adapter_sd15_vit-G.safetensors
- 4.ip-adapter-full-face_sd15.safetensors
- 5.ip-adapter-plus_sd15.safetensors
- 6.ip-adapter-plus-face_sd15.safetensors
2、SDXL版本IPAdapter模型
- 1.ip-adapter_sdxl.safetensors
- 2.ip-adapter_sdxl_vit-h.safetensors
- 3.ip-adapter-plus_sdxl_vit-h.safetensors
- 4.ip-adapter-plus-face_sdxl_vit-h.safetensors
3、FLUX版本IPAdapter模型
二十五、LaMa模型
基于傅里叶卷积的分辨率稳健大型掩模修复
二十六、MAT模型
二十七、Gligen模型
GLIGEN 在现有的预训练文本到图像扩散模型的基础上构建并扩展其功能,使其能够根据参考输入进行条件生成。
1.gligen_sd14_textbox_pruned.safetensors
二十八、UnCLIP模型
UnCLIP 的主要功能是通过文本描述生成高质量的图像。它结合了 CLIP 的文本-图像对齐能力和扩散模型(Diffusion Model)的图像生成能力,能够生成与文本描述高度匹配的图像
二十九、llava模型
三十、wd-v1-4模型与模型字典
2.wd-v1-4-convnextv2-tagger-v2.csv字典
4.wd-v1-4-moat-tagger-v2.csv字典
三十一、TripoSR模型
TripoSR 是由 Stability AI 和 Tripo AI 合作开发的快速前馈 3D 生成模型。
三十二、AnimateDiff模型
1、Motion modules模型
2、Motion LoRAs模型
3.v2_lora_RollingAnticlockwise.ckpt
4.v2_lora_RollingClockwise.ckpt
二十三、Fooocus模型
二十四、IPAdapter模型
1、SD15版本IPAdapter模型
- ip-adapter_sd15safetensors
- ip-adapter_sd15_light_v11bin
- ip-adapter_sd15_vit-Gsafetensors
- ip-adapter-full-face_sd15safetensors
- ip-adapter-plus_sd15safetensors
- ip-adapter-plus-face_sd15safetensors
2、SDXL版本IPAdapter模型
- ip-adapter_sdxlsafetensors
- ip-adapter_sdxl_vit-hsafetensors
- ip-adapter-plus_sdxl_vit-hsafetensors
- ip-adapter-plus-face_sdxl_vit-hsafetensors
3、FLUX版本IPAdapter模型
二十五、LaMa模型
基于傅里叶卷积的分辨率稳健大型掩模修复
二十六、MAT模型
二十七、Gligen模型
GLIGEN 在现有的预训练文本到图像扩散模型的基础上构建并扩展其功能,使其能够根据参考输入进行条件生成。
二十八、UnCLIP模型
UnCLIP 的主要功能是通过文本描述生成高质量的图像。它结合了 CLIP 的文本-图像对齐能力和扩散模型(Diffusion Model)的图像生成能力,能够生成与文本描述高度匹配的图像
二十九、llava模型
三十、wd-v1-4模型与模型字典
- wd-v1-4-convnextv2-tagger-v2onnx
- wd-v1-4-convnextv2-tagger-v2csv字典
- wd-v1-4-moat-tagger-v2onnx
- wd-v1-4-moat-tagger-v2csv字典
三十一、TripoSR模型
TripoSR 是由 Stability AI 和 Tripo AI 合作开发的快速前馈 3D 生成模型。
三十二、AnimateDiff模型
1、Motion modules模型
2、Motion LoRAs模型
- v2_lora_PanLeftckpt
- v2_lora_PanRightckpt
- v2_lora_RollingAnticlockwiseckpt
- v2_lora_RollingClockwiseckpt
- v2_lora_TiltDownckpt
- v2_lora_TiltUpckpt
- v2_lora_ZoomInckpt
- v2_lora_ZoomOutckpt
三十三、InsightFace模型
InsightFace是一个开源的2D&3D深度人脸分析工具箱,主要基于PyTorch和MXNet。
1、inswapper模型
2、buffalo_l模型
InsightFace 发布的 buffalo_l 面部检测和识别模型
三十四、IC-Light模型
IC-Light全称“Imposing Consistent Light”,是一个操纵图像照明的项目
三十五、RMBG模型
RMBG 是我们最先进的背景去除模型,旨在有效地将各种类别和图像类型的前景与背景分开。
三十六、SUPIR模型
模型实操案例:ComfyUI 模糊图像变清晰
三十七、BiRefNet模型
目前较好用的开源可商用背景抠除模型
- 1.COD.safetensors一种用于隐蔽目标检测(COD)的预训练模型。
2.DIS.safetensors一种用于二分图像分割(DIS)的预训练模型。
3.DIS-TR_TEs.safetensor.safetensors具有大量数据集的预训练模型。
4.General.safetensors用于一般用例的预训练模型。
5.General-Lite.safetensors用于一般用例的轻量级预训练模型。
6.General-Lite-2K.safetensors用于一般用例的轻量级预训练模型,适用于高分辨率图像。 (最佳分辨率2560x1440).
7.HRSOD.safetensors一种用于高分辨率显著目标检测(HRSOD)的预训练模型。
8.Matting.safetensors一种使用无trimap matting的预训练模型。
9.Portrait.safetensors人物肖像预训练模型。
模型实操案例:ComfyUI 一键抠图
三十八、CatVTON模型
1.CatVTON
模型实操案例:ComfyUI 一键换装
三十九、Redux模型
FLUX Redux 是用于生成图像变化的所有 FLUX基础模型的适配器。给定一个输入图像,FLUX Redux 可以重现略有变化的图像,从而可以细化给定的图像。
模型实操案例:ComfyUI 一键换装
四十、MODNet模型
MODNet 是一个仅使用 RGB 图像输入的实时人像抠图模型
2.modnet_photographic_portrait_matting.onnx
模型实操案例:ComfyUI 证件照制作
四十一、retinaface模型
离线人脸检测模型
四十二、PuLID模型
面部保持技术。Pure and Lightning ID Customization via Contrastive Alignment(通过对比对齐实现 Pure 和 Lightning ID 定制)
1、SD1.5版本PuLID模型
2、SDXL版本PuLID模型
3、FLUX版本PuLID模型
四十三、facexlib模型
facexlib是一个基于 pytorch 的面部相关功能库,例如检测、对齐、识别、跟踪、面部恢复工具等。它仅提供推理(不提供训练)。
四十四、BOPBTL 模型
老照片修复技术
四十五、Florence-2模型
Florence-2 是一种先进的视觉基础模型,它使用基于提示的方法来处理各种视觉和视觉语言任务。Florence-2 可以解释简单的文本提示来执行字幕、对象检测和分割等任务。
四十六、Dlib模型
人脸检测模型
1.shape_predictor_68_face_landmarks.dat
四十七、Makeup模型
美妆迁移模型
模型实操案例:ComfyUI 美妆迁移
四十八、LTX-Video 视频模型
LTX-Video 是第一个基于 DiT 的视频生成模型,能够实时生成高质量视频。它以 768x512 的分辨率生成 24 FPS 的视频,速度比观看速度更快。该模型在包含各种视频的大规模数据集上进行训练,可生成内容逼真、内容多样的高分辨率视频。我们为文本转视频以及图像+文本转视频用例提供了模型
模型实操案例:4-39 ComfyUI 文生视频与图生视频
四十九、WAN 视频模型
阿里巴巴旗下开源视频生成模型通义万相模型
1.wan2.1_i2v_720p_14B_fp8_e4m3fn.safetensors
2.wan2.1_t2v_14B_fp8_e4m3fn.safetensors
五十、Depth-Anything-V2模型
- 1.depth_anything_v2_vits.pth
- 2.depth_anything_v2_vitb.pth
- 3.depth_anything_v2_vitl.pth
- 4.depth_anything_v2_vitg.pth
五十一、MimicMotion模型
五十二、DWPose模型
1.dw-ll_ucoco_384_bs5.torchscript.pt
五十三、sonic模型
- :模型安装包:sonic模型
下载链接包含以下文件
五十四、TopazVideoAI模型
TopazVideoAI模型是用在TopazVideoAI软件中对视频进行放大、细节添加、帧差值等相关视频处理的模型
1.:模型安装包:TopazVideoAI模型

五十五、RVM模型
RVM 专为鲁棒的人体视频抠图而设计。与将帧作为独立图像处理的现有神经模型不同,RVM 使用循环神经网络来处理具有时间记忆的视频。RVM 可以在任何视频上实时执行抠图,而无需额外输入。
1.rvm_mobilenetv3_fp16.torchscript
2.rvm_resnet50_fp16.torchscript
模型实操案例:4-45 ComfyUI 视频抠图
五十六、ProPainter模型
ProPainter:改进视频修复的传播和变换器
3.recurrent_flow_completion.pth
度盘提取码全是错的
已修正链接提取码💪
太好了,可下载👍
亚洲人像模型的,补一下连接,感谢
👍👍👍谢谢你的打赏