奋斗
努力

华为部署DeepSeek-R1-Distil-Qwen-70B模型至少多少张卡?

云计算

截至目前(2024年6月),华为官方并未公开支持或部署名为 DeepSeek-R1-Distil-Qwen-70B 的模型。该名称看起来像是将多个不同公司的模型或技术进行了混合命名,可能存在误解或混淆。我们来逐一分析:


1. 名称解析

  • DeepSeek:深度求索(DeepSeek)是一家我国大模型公司,推出了 DeepSeek 系列大模型(如 DeepSeek-LLM、DeepSeek-MoE)。
  • R1-Distil:可能是某个版本(如 R1)的蒸馏(Distillation)模型。
  • Qwen-70B:这是通义千问(Qwen)系列中由阿里云发布的 700 亿参数大模型,即 Qwen-70B
  • 将 DeepSeek 和 Qwen 结合的模型(如 DeepSeek-R1-Distil-Qwen-70B)并不存在公开记录,也不是 DeepSeek 或阿里云发布的官方模型。

2. 华为与大模型部署

华为提供的是 昇腾(Ascend)AI 芯片(如 Ascend 910B)和 MindSpore 框架,用于大模型训练与推理。但华为 并未发布 Qwen-70B 或 DeepSeek 的官方部署方案

若要在华为昇腾平台上部署类似 Qwen-70B 这样的 70B 参数大模型,需要考虑:


3. 部署 Qwen-70B 所需算力(估算)

Qwen-70B 为例(700亿参数,FP16 精度):

  • 显存需求

    • 参数存储:70B × 2 字节 = 140 GB
    • 梯度、优化器状态(训练时):约 3~4 倍,即 420~560 GB
    • 推理时(仅加载模型):约 140~160 GB(可通过量化压缩)
  • 使用华为 Ascend 910B(每卡 AI 算力约 256 TFLOPS,HBM 显存 32 GB):

    • 每张卡 32 GB 显存
    • 推理部署(FP16):140 GB / 32 GB ≈ 5 张卡起(需模型并行)
    • 若使用 INT8 量化:显存减半,约 3 张卡 可能足够
    • 训练部署:需要更多卡(通常 64+ 卡集群)

4. 结论

虽然“DeepSeek-R1-Distil-Qwen-70B”不是一个真实存在的公开模型,但如果问题是:

在华为昇腾平台上部署类似 Qwen-70B 的大模型,至少需要多少张 Ascend 910B 卡?

答案是:

推理部署

  • FP16 精度:至少 5~6 张 Ascend 910B(32 GB/卡)
  • INT8 量化后:至少 3~4 张

训练部署

  • 需要 64 张以上,并配合模型并行、数据并行等技术

建议

  • 如果你是指 Qwen-70B,建议参考阿里云官方部署方案(支持 NVIDIA A100/H100)。
  • 若在华为昇腾平台部署,需确认模型是否已完成适配(如通过 MindSpore 或 CANN 工具链)。
  • “DeepSeek-R1-Distil-Qwen-70B”可能是误写,建议核实模型名称。

如你能提供更准确的模型来源或部署场景(训练/推理、精度要求),我可以给出更具体的建议。

未经允许不得转载:云服务器 » 华为部署DeepSeek-R1-Distil-Qwen-70B模型至少多少张卡?