ComfyUI教程ComfyUI部署教程AI图像生成Stable DiffusionGPU

ComfyUI 部署教程:从零搭建 AI 图像生成工作流服务

完整的 ComfyUI 服务端部署教程,涵盖 Linux 安装、GPU 配置、API 服务暴露、常用工作流配置,适合个人和团队使用。

2026/04/081 次阅读

ComfyUI 部署教程:从零搭建 AI 图像生成工作流服务

ComfyUI 是目前最强大的开源 AI 图像生成工作流引擎,基于 Stable Diffusion 系列模型,通过节点式编排支持极其复杂的图像生成流程。本文教你在服务器上完整部署。


一、硬件要求

配置最低推荐说明
GPU 显存4GB8GB+显存决定可用模型
系统内存8GB16GB模型加载缓冲
磁盘空间30GB100GB+模型文件很大
GPU 型号GTX 1060 6GBRTX 3090/4090NVIDIA 系列

注意:AMD GPU 可以通过 ROCm 支持,但配置复杂,本文以 NVIDIA 为主。


二、安装 CUDA 和 Python 环境

# 检查 GPU 驱动
nvidia-smi

# 安装 CUDA 11.8 或 12.x(根据驱动版本选择)
# 前往 https://developer.nvidia.com/cuda-downloads 选择版本

# 安装 Python 3.10+
sudo apt install python3.10 python3.10-venv python3-pip -y

# 创建虚拟环境
python3 -m venv /opt/comfyui-env
source /opt/comfyui-env/bin/activate

三、安装 ComfyUI

# 克隆仓库
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI

# 安装 PyTorch(CUDA 12.1 版本,根据你的 CUDA 版本选择)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# 安装依赖
pip install -r requirements.txt

# 验证 GPU 可用
python -c "import torch; print(torch.cuda.is_available()); print(torch.cuda.get_device_name(0))"

四、下载基础模型

# 模型目录
mkdir -p models/checkpoints
mkdir -p models/vae
mkdir -p models/loras

# 下载 SDXL 基础模型(约 6.5GB)
# 推荐:Juggernaut XL 或 RealVisXL
# 从 HuggingFace 下载
pip install huggingface_hub

python << 'EOF'
from huggingface_hub import hf_hub_download

# 下载 SDXL 模型(国内可能需要代理)
hf_hub_download(
    repo_id="stabilityai/stable-diffusion-xl-base-1.0",
    filename="sd_xl_base_1.0.safetensors",
    local_dir="models/checkpoints"
)
EOF

# 国内替代:从 ModelScope 下载
pip install modelscope
modelscope download --model stabilityai/stable-diffusion-xl-base-1.0 \
    --local_dir models/checkpoints

五、启动 ComfyUI

# 基础启动
python main.py --listen 0.0.0.0 --port 8188

# 生产启动(推荐参数)
python main.py \
    --listen 0.0.0.0 \
    --port 8188 \
    --highvram \
    --fp16-vae \
    --fast

# 显存不足时
python main.py \
    --listen 0.0.0.0 \
    --lowvram \
    --port 8188

配置为系统服务

# /etc/systemd/system/comfyui.service
[Unit]
Description=ComfyUI Service
After=network.target

[Service]
User=ubuntu
WorkingDirectory=/home/ubuntu/ComfyUI
Environment="PATH=/opt/comfyui-env/bin:/usr/bin"
ExecStart=/opt/comfyui-env/bin/python main.py --listen 0.0.0.0 --port 8188 --highvram
Restart=always
RestartSec=10

[Install]
WantedBy=multi-user.target
sudo systemctl daemon-reload
sudo systemctl enable comfyui
sudo systemctl start comfyui

六、配置 Nginx 反向代理

server {
    listen 443 ssl;
    server_name comfyui.your-domain.com;

    # 文件上传大小(图生图需要上传参考图)
    client_max_body_size 50M;

    location / {
        proxy_pass http://127.0.0.1:8188;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;

        # WebSocket 支持(ComfyUI 使用 WS 传输进度)
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade";
        proxy_read_timeout 600s;  # 生成图片可能需要很长时间
    }
}

七、安装 ComfyUI Manager(必装)

cd custom_nodes
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
cd ..
# 重启 ComfyUI

ComfyUI Manager 让你可以在 Web 界面中一键安装节点和模型,极大简化后续扩展。


八、验证与第一张图

访问 http://your-server:8188(或配置的域名):

  1. 界面加载完成后,看到节点工作流画布
  2. 确认左侧 Checkpoint 已选择下载的模型
  3. 在 CLIP Text Encode(正向提示词)输入:a beautiful sunset over mountains, photorealistic, 8k
  4. 点击右侧 Queue Prompt
  5. 等待图像生成(RTX 4090 约 3-5 秒,GTX 1060 约 60-120 秒)

九、API 使用

ComfyUI 提供完整的 HTTP API,可以集成到业务系统中:

import json
import urllib.request

# 提交工作流
def queue_prompt(prompt_workflow):
    p = {"prompt": prompt_workflow}
    data = json.dumps(p).encode('utf-8')
    req = urllib.request.Request(
        "http://127.0.0.1:8188/prompt",
        data=data,
        headers={'Content-Type': 'application/json'}
    )
    with urllib.request.urlopen(req) as response:
        return json.loads(response.read())

专业 GPU 服务器部署

如果你没有 GPU 服务器,或者需要为团队提供高可用的 ComfyUI 服务,可以在 LocalClaw(insman.cn) 上找到专业的 ComfyUI 部署服务商,他们通常有现成的 GPU 服务器资源,可以快速完成部署和定制。

相关文章