ComfyUI常见问题ComfyUI常见问题FAQAI图像生成Stable Diffusion

ComfyUI 常见问题解答:图像生成中的 16 个高频问题

ComfyUI 用户最常遇到的 16 个问题,包含 CUDA 报错、图像质量差、工作流报错等,每题附完整解决方案。

2026/04/082 次阅读

ComfyUI 常见问题解答:图像生成中的 16 个高频问题


安装与启动问题

Q1:启动时报 CUDA out of memory

原因:显存不足,无法加载模型。

# 解决方案一:使用低显存模式
python main.py --lowvram

# 解决方案二:使用 CPU 卸载(速度慢但能跑)
python main.py --cpu

# 解决方案三:关闭其他占用显存的程序
nvidia-smi  # 查看显存占用
kill -9 PID  # 关闭占用显存的进程

# 解决方案四:使用更小的模型或降低分辨率
# 默认 1024x1024 → 改为 512x512

Q2:启动时报 ModuleNotFoundError: No module named torch

# 检查是否激活了虚拟环境
which python  # 应该是虚拟环境路径

# 没有激活的话
source /opt/comfyui-env/bin/activate

# 重新安装 PyTorch
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

Q3:浏览器打开 ComfyUI 页面显示连接失败

# 检查服务是否在运行
systemctl status comfyui

# 检查端口监听
ss -tlnp | grep 8188

# 检查防火墙
sudo ufw allow 8188
# 或云服务器安全组,开放 8188 端口入站规则

图像质量问题

Q4:生成的图像模糊或质量很差

原因:可能是 Steps 太少、CFG 值不合适或提示词问题。

推荐参数

参数说明
Steps20-30越多越精细,但更慢
CFG Scale7-8太高会过拟合提示词
SamplerDPM++ 2M Karras通用高质量采样器
分辨率1024x1024 (SDXL)按模型推荐使用

Q5:人脸生成变形

解决方案:
1. 安装 ADetailer 节点(人脸修复)
2. 在工作流中添加 ADetailer 节点,连接在 KSampler 后面
3. 使用专门的人脸修复模型(face_yolov8n.pt)

# 在 ComfyUI Manager 中搜索:ComfyUI-Impact-Pack
# 包含完整的面部修复工具链

Q6:生成图像总有水印或奇怪的字符

原因:模型是从含水印数据训练的,或者 VAE 解码问题。

解决方案:
1. 在负向提示词中加入:watermark, text, logo, signature, words
2. 更换 VAE(使用 sdxl_vae.safetensors)
3. 更换基础模型(选择高质量 finetune 版本)

工作流问题

Q7:导入工作流后部分节点显示红色报错

原因:缺少对应的自定义节点包。

# 方法一:ComfyUI Manager 自动安装缺失节点
# 菜单 → Manager → Install Missing Custom Nodes

# 方法二:手动安装
cd custom_nodes
git clone https://github.com/节点仓库URL.git

# 重启 ComfyUI

Q8:工作流卡在某个节点不动,没有报错

# 查看终端日志
# 通常是模型加载缓慢,耐心等待

# 如果超过 10 分钟没有进展
# 检查 GPU 是否在工作
nvidia-smi -l 1  # 动态刷新,看 GPU 利用率

# 强制中断并重新队列
# 在 UI 中点击:Interrupt → 清空队列 → 重新运行

Q9:ControlNet 节点不生效,图像完全忽略参考图

常见原因:
1. ControlNet 模型放错位置
   正确路径:models/controlnet/

2. Preprocessor 和 ControlNet 模型不匹配
   Canny 参考图 → 使用 control_v11p_sd15_canny.pth
   Depth 参考图 → 使用 control_v11f1p_sd15_depth.pth

3. ControlNet 权重太低
   strength 参数设置为 0.8-1.0

性能问题

Q10:生成速度很慢(1024x1024 需要 5 分钟以上)

# 1. 确认 GPU 在使用(不是 CPU 模式)
nvidia-smi
# GPU-Util 应该接近 100% 在生成期间

# 2. 启用 xformers 加速
pip install xformers
python main.py --use-pytorch-cross-attention

# 3. 使用 torch.compile(PyTorch 2.0+)
python main.py --fast

# 4. 降低步数
# 20 步 DPM++ 2M Karras 通常已经足够

Q11:多个任务排队很慢,希望提高吞吐量

ComfyUI 单机串行处理,提高吞吐的方式:

# 方式一:多 GPU 部署多个实例
python main.py --listen 0.0.0.0 --port 8188 --cuda-device 0
python main.py --listen 0.0.0.0 --port 8189 --cuda-device 1

# 方式二:前置负载均衡器分发到多个实例
# 使用 Nginx upstream 轮询

模型与资源问题

Q12:国内下载 Hugging Face 模型超时

# 使用 HF Mirror
export HF_ENDPOINT=https://hf-mirror.com
pip install huggingface_hub
huggingface-cli download stabilityai/stable-diffusion-xl-base-1.0

# 或者使用 ModelScope
pip install modelscope
modelscope download --model AI-ModelScope/stable-diffusion-xl-base-1.0

Q13:磁盘空间不足,模型太多

# 查看各目录大小
du -sh models/checkpoints/*
du -sh models/loras/*

# 删除不用的模型
rm models/checkpoints/old-model.safetensors

# ComfyUI 会在重启后自动更新模型列表

Q14 - Q16 快速解答

问题答案
SDXL 和 SD 1.5 模型能混用吗?不能,两者不兼容,LoRA 也必须对应版本
如何保存工作流?右键画布 → Save → 保存为 JSON
生成的图片存在哪里?ComfyUI/output 目录,按日期分文件夹

需要专业 GPU 环境?

如果你的硬件不够或希望有一个稳定的 ComfyUI 服务,LocalClaw(insman.cn) 上的服务商可以提供基于专业 GPU 服务器的 ComfyUI 部署服务。

相关文章