ComfyUI 用户最常遇到的 16 个问题,包含 CUDA 报错、图像质量差、工作流报错等,每题附完整解决方案。
CUDA out of memory原因:显存不足,无法加载模型。
# 解决方案一:使用低显存模式
python main.py --lowvram
# 解决方案二:使用 CPU 卸载(速度慢但能跑)
python main.py --cpu
# 解决方案三:关闭其他占用显存的程序
nvidia-smi # 查看显存占用
kill -9 PID # 关闭占用显存的进程
# 解决方案四:使用更小的模型或降低分辨率
# 默认 1024x1024 → 改为 512x512
ModuleNotFoundError: No module named torch# 检查是否激活了虚拟环境
which python # 应该是虚拟环境路径
# 没有激活的话
source /opt/comfyui-env/bin/activate
# 重新安装 PyTorch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
# 检查服务是否在运行
systemctl status comfyui
# 检查端口监听
ss -tlnp | grep 8188
# 检查防火墙
sudo ufw allow 8188
# 或云服务器安全组,开放 8188 端口入站规则
原因:可能是 Steps 太少、CFG 值不合适或提示词问题。
推荐参数:
| 参数 | 值 | 说明 |
|---|---|---|
| Steps | 20-30 | 越多越精细,但更慢 |
| CFG Scale | 7-8 | 太高会过拟合提示词 |
| Sampler | DPM++ 2M Karras | 通用高质量采样器 |
| 分辨率 | 1024x1024 (SDXL) | 按模型推荐使用 |
解决方案:
1. 安装 ADetailer 节点(人脸修复)
2. 在工作流中添加 ADetailer 节点,连接在 KSampler 后面
3. 使用专门的人脸修复模型(face_yolov8n.pt)
# 在 ComfyUI Manager 中搜索:ComfyUI-Impact-Pack
# 包含完整的面部修复工具链
原因:模型是从含水印数据训练的,或者 VAE 解码问题。
解决方案:
1. 在负向提示词中加入:watermark, text, logo, signature, words
2. 更换 VAE(使用 sdxl_vae.safetensors)
3. 更换基础模型(选择高质量 finetune 版本)
原因:缺少对应的自定义节点包。
# 方法一:ComfyUI Manager 自动安装缺失节点
# 菜单 → Manager → Install Missing Custom Nodes
# 方法二:手动安装
cd custom_nodes
git clone https://github.com/节点仓库URL.git
# 重启 ComfyUI
# 查看终端日志
# 通常是模型加载缓慢,耐心等待
# 如果超过 10 分钟没有进展
# 检查 GPU 是否在工作
nvidia-smi -l 1 # 动态刷新,看 GPU 利用率
# 强制中断并重新队列
# 在 UI 中点击:Interrupt → 清空队列 → 重新运行
常见原因:
1. ControlNet 模型放错位置
正确路径:models/controlnet/
2. Preprocessor 和 ControlNet 模型不匹配
Canny 参考图 → 使用 control_v11p_sd15_canny.pth
Depth 参考图 → 使用 control_v11f1p_sd15_depth.pth
3. ControlNet 权重太低
strength 参数设置为 0.8-1.0
# 1. 确认 GPU 在使用(不是 CPU 模式)
nvidia-smi
# GPU-Util 应该接近 100% 在生成期间
# 2. 启用 xformers 加速
pip install xformers
python main.py --use-pytorch-cross-attention
# 3. 使用 torch.compile(PyTorch 2.0+)
python main.py --fast
# 4. 降低步数
# 20 步 DPM++ 2M Karras 通常已经足够
ComfyUI 单机串行处理,提高吞吐的方式:
# 方式一:多 GPU 部署多个实例
python main.py --listen 0.0.0.0 --port 8188 --cuda-device 0
python main.py --listen 0.0.0.0 --port 8189 --cuda-device 1
# 方式二:前置负载均衡器分发到多个实例
# 使用 Nginx upstream 轮询
# 使用 HF Mirror
export HF_ENDPOINT=https://hf-mirror.com
pip install huggingface_hub
huggingface-cli download stabilityai/stable-diffusion-xl-base-1.0
# 或者使用 ModelScope
pip install modelscope
modelscope download --model AI-ModelScope/stable-diffusion-xl-base-1.0
# 查看各目录大小
du -sh models/checkpoints/*
du -sh models/loras/*
# 删除不用的模型
rm models/checkpoints/old-model.safetensors
# ComfyUI 会在重启后自动更新模型列表
| 问题 | 答案 |
|---|---|
| SDXL 和 SD 1.5 模型能混用吗? | 不能,两者不兼容,LoRA 也必须对应版本 |
| 如何保存工作流? | 右键画布 → Save → 保存为 JSON |
| 生成的图片存在哪里? | ComfyUI/output 目录,按日期分文件夹 |
如果你的硬件不够或希望有一个稳定的 ComfyUI 服务,LocalClaw(insman.cn) 上的服务商可以提供基于专业 GPU 服务器的 ComfyUI 部署服务。
深入分析 ComfyUI 在电商、游戏、广告、出版、建筑、时尚六个商业场景中的实战应用,含工作流设计和效率对比。
总结 ComfyUI 新手最常犯的 10 个错误,包含模型放错位置、节点版本冲突、工作流卡死等,每条附具体解决步骤。
全面对比 ComfyUI、Stable Diffusion WebUI(A1111)和 Midjourney,从质量、可控性、成本、上手难度帮你做出最优选择。
用 ComfyUI 生产了数千张商业图像之后,从工作流灵活性、图像质量、学习曲线、商业可用性四个维度给出全面评测。