完整的 ComfyUI 服务端部署教程,涵盖 Linux 安装、GPU 配置、API 服务暴露、常用工作流配置,适合个人和团队使用。
ComfyUI 是目前最强大的开源 AI 图像生成工作流引擎,基于 Stable Diffusion 系列模型,通过节点式编排支持极其复杂的图像生成流程。本文教你在服务器上完整部署。
| 配置 | 最低 | 推荐 | 说明 |
|---|---|---|---|
| GPU 显存 | 4GB | 8GB+ | 显存决定可用模型 |
| 系统内存 | 8GB | 16GB | 模型加载缓冲 |
| 磁盘空间 | 30GB | 100GB+ | 模型文件很大 |
| GPU 型号 | GTX 1060 6GB | RTX 3090/4090 | NVIDIA 系列 |
注意:AMD GPU 可以通过 ROCm 支持,但配置复杂,本文以 NVIDIA 为主。
# 检查 GPU 驱动
nvidia-smi
# 安装 CUDA 11.8 或 12.x(根据驱动版本选择)
# 前往 https://developer.nvidia.com/cuda-downloads 选择版本
# 安装 Python 3.10+
sudo apt install python3.10 python3.10-venv python3-pip -y
# 创建虚拟环境
python3 -m venv /opt/comfyui-env
source /opt/comfyui-env/bin/activate
# 克隆仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 安装 PyTorch(CUDA 12.1 版本,根据你的 CUDA 版本选择)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
# 安装依赖
pip install -r requirements.txt
# 验证 GPU 可用
python -c "import torch; print(torch.cuda.is_available()); print(torch.cuda.get_device_name(0))"
# 模型目录
mkdir -p models/checkpoints
mkdir -p models/vae
mkdir -p models/loras
# 下载 SDXL 基础模型(约 6.5GB)
# 推荐:Juggernaut XL 或 RealVisXL
# 从 HuggingFace 下载
pip install huggingface_hub
python << 'EOF'
from huggingface_hub import hf_hub_download
# 下载 SDXL 模型(国内可能需要代理)
hf_hub_download(
repo_id="stabilityai/stable-diffusion-xl-base-1.0",
filename="sd_xl_base_1.0.safetensors",
local_dir="models/checkpoints"
)
EOF
# 国内替代:从 ModelScope 下载
pip install modelscope
modelscope download --model stabilityai/stable-diffusion-xl-base-1.0 \
--local_dir models/checkpoints
# 基础启动
python main.py --listen 0.0.0.0 --port 8188
# 生产启动(推荐参数)
python main.py \
--listen 0.0.0.0 \
--port 8188 \
--highvram \
--fp16-vae \
--fast
# 显存不足时
python main.py \
--listen 0.0.0.0 \
--lowvram \
--port 8188
# /etc/systemd/system/comfyui.service
[Unit]
Description=ComfyUI Service
After=network.target
[Service]
User=ubuntu
WorkingDirectory=/home/ubuntu/ComfyUI
Environment="PATH=/opt/comfyui-env/bin:/usr/bin"
ExecStart=/opt/comfyui-env/bin/python main.py --listen 0.0.0.0 --port 8188 --highvram
Restart=always
RestartSec=10
[Install]
WantedBy=multi-user.target
sudo systemctl daemon-reload
sudo systemctl enable comfyui
sudo systemctl start comfyui
server {
listen 443 ssl;
server_name comfyui.your-domain.com;
# 文件上传大小(图生图需要上传参考图)
client_max_body_size 50M;
location / {
proxy_pass http://127.0.0.1:8188;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
# WebSocket 支持(ComfyUI 使用 WS 传输进度)
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_read_timeout 600s; # 生成图片可能需要很长时间
}
}
cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ..
# 重启 ComfyUI
ComfyUI Manager 让你可以在 Web 界面中一键安装节点和模型,极大简化后续扩展。
访问 http://your-server:8188(或配置的域名):
a beautiful sunset over mountains, photorealistic, 8kQueue PromptComfyUI 提供完整的 HTTP API,可以集成到业务系统中:
import json
import urllib.request
# 提交工作流
def queue_prompt(prompt_workflow):
p = {"prompt": prompt_workflow}
data = json.dumps(p).encode('utf-8')
req = urllib.request.Request(
"http://127.0.0.1:8188/prompt",
data=data,
headers={'Content-Type': 'application/json'}
)
with urllib.request.urlopen(req) as response:
return json.loads(response.read())
如果你没有 GPU 服务器,或者需要为团队提供高可用的 ComfyUI 服务,可以在 LocalClaw(insman.cn) 上找到专业的 ComfyUI 部署服务商,他们通常有现成的 GPU 服务器资源,可以快速完成部署和定制。
手把手教你在云服务器上完整部署 OpenClaw AI Agent 框架,包含环境配置、服务编排、监控接入全流程。
深入分析 ComfyUI 在电商、游戏、广告、出版、建筑、时尚六个商业场景中的实战应用,含工作流设计和效率对比。
总结 ComfyUI 新手最常犯的 10 个错误,包含模型放错位置、节点版本冲突、工作流卡死等,每条附具体解决步骤。
全面对比 ComfyUI、Stable Diffusion WebUI(A1111)和 Midjourney,从质量、可控性、成本、上手难度帮你做出最优选择。