腾讯云GPU服务器GN10Xp-V100 Docker容器镜像部署AI绘画环境指南
环境准备
- 腾讯云GPU服务器:确保您已购买GN10Xp实例(配备NVIDIA V100 GPU)
- 基础环境:
- 已安装NVIDIA驱动
- 已安装Docker和NVIDIA Container Toolkit
一键部署方案
方案一:使用预构建的Docker镜像
# 拉取预构建的AI绘画镜像
docker pull ccr.ccs.tencentyun.com/ai_painting/stable-diffusion:latest
# 运行容器(自动下载模型)
docker run -it --gpus all -p 7860:7860
-v /path/to/your/models:/app/models
ccr.ccs.tencentyun.com/ai_painting/stable-diffusion:latest
方案二:自定义构建Dockerfile
FROM nvidia/cuda:11.3.1-cudnn8-runtime-ubuntu20.04
# 安装基础依赖
RUN apt-get update && apt-get install -y
python3.8
python3-pip
git
&& rm -rf /var/lib/apt/lists/*
# 安装PyTorch和依赖
RUN pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113
# 安装Stable Diffusion WebUI
RUN git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui /app
WORKDIR /app
# 安装依赖
RUN pip3 install -r requirements.txt
# 暴露端口
EXPOSE 7860
# 启动命令
CMD ["python3", "launch.py", "--listen", "--xformers"]
构建并运行:
docker build -t sd-webui .
docker run -it --gpus all -p 7860:7860 -v /path/to/models:/app/models sd-webui
模型下载与配置
-
下载Stable Diffusion模型:
- 将模型文件(.ckpt或.safetensors)放入挂载的
/path/to/your/models目录 - 推荐模型存放路径:
/app/models/Stable-diffusion/
- 将模型文件(.ckpt或.safetensors)放入挂载的
-
常用模型推荐:
- Stable Diffusion 1.5/2.1
- Anything V4.5
- NovelAI模型(需合法授权)
访问Web界面
容器启动后,通过浏览器访问:
http://<您的服务器IP>:7860
性能优化建议
-
启用xformers:
# 在启动命令中添加 --xformers -
使用TensorRT提速:
# 安装TensorRT插件 pip install tensorrt -
调整CUDA设置:
export CUDA_VISIBLE_DEVICES=0 # 指定使用哪块GPU export TF_FORCE_GPU_ALLOW_GROWTH=true
常见问题解决
-
GPU无法识别:
- 确保已正确安装NVIDIA驱动和nvidia-container-toolkit
- 运行
nvidia-smi验证GPU状态
-
内存不足:
- 减小生成图片分辨率
- 使用
--medvram或--lowvram参数启动
-
模型加载失败:
- 检查模型文件路径和权限
- 确保模型文件完整未损坏
腾讯云特定优化
-
使用腾讯云COS存储模型:
# 挂载COS到容器 -v /mnt/cos/models:/app/models -
利用腾讯云GPU监控:
- 通过云监控控制台查看GPU使用率
-
安全组配置:
- 确保安全组开放了7860端口(或您自定义的端口)
如需更详细的腾讯云特定配置,建议参考腾讯云官方文档或联系技术支持。
云服务器