在腾讯云的 GPU 机型 GN7 上使用 Docker 运行 Stable Diffusion 是完全可行的。以下是详细步骤和注意事项,帮助你快速部署:
1. 确认 GN7 实例配置
- GPU 型号:GN7 通常搭载 NVIDIA T4 或 Tesla V100,适合运行 Stable Diffusion。
- 驱动要求:确保已安装:
- NVIDIA 驱动(最新版)
- CUDA Toolkit(建议 11.3+)
- Docker + NVIDIA Container Toolkit
2. 拉取 Stable Diffusion Docker 镜像
推荐使用预构建的镜像(如 lstein/stable-diffusion 或官方版本):
docker pull lstein/stable-diffusion
或自定义镜像(需包含 PyTorch + CUDA 支持):
FROM nvidia/cuda:11.3.1-base
RUN pip install torch torchvision --extra-index-url https://download.pytorch.org/whl/cu113
RUN pip install diffusers transformers scipy
3. 启动容器
挂载模型目录并启用 GPU:
docker run -it --gpus all
-p 7860:7860
-v /path/to/models:/models
lstein/stable-diffusion
--gpus all:启用 GPU 提速。-v /path/to/models:挂载自定义模型(如v1-5-pruned.ckpt)。
4. 下载模型(可选)
如果镜像未内置模型,需手动下载:
wget https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/resolve/main/sd-v1-4.ckpt -O /models/sd-v1-4.ckpt
5. 运行 Web UI
启动容器后,访问 http://<你的服务器IP>:7860 使用 Stable Diffusion WebUI。
常见问题
- CUDA 版本不匹配:确保容器内 CUDA 版本与主机驱动兼容。
- 显存不足:T4(16GB)适合基础模型;若需更大模型(如 SDXL),需调整参数或升级显存。
- 性能优化:启用
--xformers或torch.compile()提速推理。
其他方案
- 使用 Hugging Face Diffusers:直接调用
diffusers库,无需完整 WebUI。from diffusers import StableDiffusionPipeline pipe = StableDiffusionPipeline.from_pretrained("CompVis/stable-diffusion-v1-4", use_auth_token=True) image = pipe("a cat wearing a hat").images[0]
按需调整参数即可快速部署。如果有具体需求(如自定义模型、低显存优化),可进一步细化配置。
云服务器