在Ubuntu上选择适合深度学习推理的版本时,需综合考虑系统稳定性、驱动支持、CUDA兼容性以及软件生态。以下是具体建议:
1. 推荐版本:Ubuntu 22.04 LTS(Jammy Jellyfish)
- 长期支持 (LTS):官方支持至2027年,适合生产环境。
- 驱动与CUDA兼容性:
- 默认内核(5.15+)支持较新的NVIDIA显卡(如Ampere架构的RTX 30/40系列)。
- CUDA Toolkit 12.x/11.x 官方支持该版本,安装便捷(通过
apt或NVIDIA官方仓库)。
- 软件生态:
- TensorRT、PyTorch、TensorFlow等主流框架均提供Ubuntu 22.04的预编译包。
- Docker和Kubernetes支持完善,方便容器化部署。
2. 备选版本:Ubuntu 20.04 LTS(Focal Fossa)
- 稳定性优先:若使用较旧硬件(如Turing架构的RTX 20系列),驱动支持更成熟。
- 企业级选择:部分企业仍沿用20.04,社区资源丰富,但需注意:
- 默认内核(5.4)可能需要手动升级以支持新显卡。
- CUDA 11.x为官方推荐版本,部分新特性(如CUDA 12)可能需额外配置。
3. 避免非LTS版本
- 如Ubuntu 23.10等短期版本,更新频繁但生命周期短(仅9个月),不适合长期稳定的推理环境。
关键配置建议
- NVIDIA驱动:
- 使用官方驱动(
nvidia-driver-535或更高),通过以下命令安装:sudo apt install nvidia-driver-535
- 使用官方驱动(
- CUDA Toolkit:
- 推荐CUDA 12.x(兼容最新框架)或11.8(稳定性优先):
sudo apt install cuda-12-2
- 推荐CUDA 12.x(兼容最新框架)或11.8(稳定性优先):
- 容器化部署:
- 使用NVIDIA Docker运行时,简化环境管理:
docker run --gpus all -it nvcr.io/nvidia/pytorch:23.10-py3
- 使用NVIDIA Docker运行时,简化环境管理:
验证环境
安装完成后,运行以下命令检查:
nvidia-smi # 确认驱动和GPU识别
nvcc --version # 检查CUDA版本
python3 -c "import torch; print(torch.cuda.is_available())" # 测试PyTorch GPU支持
总结
- 新硬件/新项目:Ubuntu 22.04 LTS + CUDA 12.x。
- 旧硬件/保守环境:Ubuntu 20.04 LTS + CUDA 11.x。
- 避免非LTS版本,优先通过官方源或容器管理依赖。
云服务器