支持的GPU云服务器类型

最近更新时间:2022-06-27 17:12:09

查看PDF

GPU云服务器提供GPU加速的弹性计算服务,可以用于科学计算,AI深度学习,图形图像渲染与基于GPU的音视频编解码等诸多应用场景。容器实例已支持GPU云服务器,您可以指定容器实例底层所使用的GPU云服务器套餐规格来创建实例。

容器实例提供的GPU云服务器类型包括:

GPU云服务器
实例类型
适用场景
直通 (Passthrough) GPU推理计算型P3I
GPU推理计算型P3IN
GPU通用计算型P4V
深度学习、语音、图形/图像学习等常见训练和推理场景
vGPU GPU虚拟化vGN5
GPU虚拟化vGN6
云端渲染和小规模、弹性、灵活的AI应用场景

注:

  1. 若要在容器实例中使用GPU云服务器,必须在Pod metadata中添加Annotation来指定GPU机型,目前不支持根据容器实例的GPU Limit值自动匹配GPU机型。指定GPU机型后,在Container配置中需添加nvidia.com/gpu字段声明GPU资源。
  2. 通过Deployment等控制器创建的Pod,如果Pod申请的GPU数量超过机型的GPU数量,会出现Pod在创建失败后不断重复创建的情况。为避免此情况发生,请确保Pod在nvidia.com/gpu字段中声明的GPU数量不超过Annotation中指定机型的GPU数量。

示例如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx
  labels:
    app: nginx
spec:
  replicas: 2
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
      annotations:
        k8s.ksyun.com/kci-instance-type: P3I.8A1 # 根据需要指定GPU机型
        k8s.ksyun.com/kci-base-system-disk-size: "50" # vGPU类型的云服务器由于机型限制,需指定系统盘规格为50G或以上
    spec:
      containers:
      - name: nginx
        image: nginx:latest
        resources:
          limits:
            nvidia.com/gpu: 1 # 指定GPU卡数
        ports:
        - containerPort: 80
      nodeName: rbkci-virtual-kubelet # 指定nodeName将Pod调度到虚拟节点上

GPU推理计算型P3I

该实例适用于语音识别、语音合成、图像识别等推理预测场景。

基于NVIDIA Tesla P4,每GPU具备8GB DDR5 GPU内存、5.5TFLOPS的单精度 (FP32) 计算能力和22TOPS的INT8计算能力,单GPU实例在深度学习的推理预测场景下相比于CPU延时降低15倍,吞吐增加60倍。

实例特点包括:

  • 处理器:2.6 GHz主频的Intel® Xeon® Processor E5-2690 v4
  • 支持系统盘类型:本地SSD
  • 支持数据盘类型:本地SSD、EBS3.0

P3I实例包括的型号和参数规格如下表所示:

型号
GPU(Tesla P4)
GPU显存(GDDR5)
vCPU(核)
内存(DDR4)
数据盘(本地SSD)
网络收发包能力(万PPS)
网络带宽能力(Gbit/s)
P3I.8A1 1颗 8GB*1 8 16GB 0GB 20 3
P3I.14D1 1颗 8GB*1 14 32GB 0GB 20 3
P3I.14B1 1颗 8GB*1 14 120GB 500GB 20 3
P3I.28C2 2颗 8GB*2 28 240GB 1000GB 30 6

GPU推理计算型P3IN

实例特点包括:

  • 处理器:2.6 GHz主频的Intel® Xeon® Processor E5-2690 v4
  • 支持系统盘类型:本地SSD
  • 支持数据盘类型:本地SSD、EBS3.0

具体套餐信息:该实例的适用场景以及采用的硬件与P3I一致,包括的型号和参数规格如下表所示:

型号
GPU(Tesla P4)
GPU显存(GDDR5)
vCPU(核)
内存(DDR4)
数据盘(本地SSD)
网络收发包能力(万PPS)
网络带宽能力(Gbit/s)
P3IN.4A1 1颗 8GB*1 4 16GB 120GB 10 1.5
P3IN.8B1 1颗 8GB*1 8 32GB 180GB 20 1.5
P3IN.16C2 2颗 8GB*2 16 64GB 360GB 30 3
P3IN.32D4 4颗 8GB*4 32 128GB 720GB 40 6

GPU通用计算型P4V

该实例适用于深度学习的训练场景和推理场景。

基于NVIDIA Tesla V100,每GPU具备16GB HBM2 GPU内存、15TFLOPS的单精度 (FP32) 计算能力和125TFLOPS的混合精度计算能力。

实例特点包括:

  • 处理器:2.6 GHz主频的Intel® Xeon® Processor E5-2690 v4
  • 支持系统盘类型:本地SSD
  • 支持数据盘类型:本地SSD、EBS3.0

P4V实例包括的型号和参数规格如下表所示:

型号
GPU(Tesla V100)
GPU显存(HBM2)
vCPU(核)
内存(DDR4)
数据盘(本地SSD)
网络收发包能力(万PPS)
网络带宽能力(Gbit/s)
P4V.8A1 1颗 16GB*1 8 32GB 240GB 20 1.5
P4V.16B2 2颗 16GB*2 16 64GB 480GB 30 3
P4V.28C4 4颗 16GB*4 28 128GB 960GB 30 6
P4V.56D8 8颗 16GB*8 56 256GB 1920GB 40 8

GPU虚拟化vGN5

该实例的适用场景包括:

  • 云游戏的云端实时渲染
  • AR/VR的云端实时渲染
  • AI(深度学习DL/机器学习ML)

实例特点包括:

  • GPU:采用NVIDIA P4 GPU
  • 处理器:2.6 GHz主频的Intel ® Xeon ® E5-2690 v4 (Broadwell)
  • 支持系统盘类型:本地SSD
  • 支持数据盘类型:本地SSD、EBS3.0
  • vGPU类别
    • vCS:专门用于深度学习,提供1/2*Tesla P4、1*Tesla P4两种实例
    • vPC:图形/图像处理场景,提供1/8*Tesla P4、1/4*Tesla P4两种实例

vGN5实例包括的型号和参数规格如下表所示:

型号
GPU(Tesla P4)
GPU显存(GDDR5)
vCPU(核)
内存(DDR4)
数据盘(本地SSD)
网络收发包能力(万PPS)
网络带宽能力(Gbit/s)
vGN5.vPC-2D8 1/8颗 2GB 2 12GB 100GB 10 1
vGN5.vPC-4C4 1/4颗 4GB 4 24GB 200GB 10 1
vGN5.vCS-8B2 1/2颗 8GB 8 48GB 400GB 20 2
vGN5.vCS-16A1 1颗 16GB 16 96GB 800GB 30 3

其中vPC适用于图形图像处理,vCS适用于CUDA计算,如AI推理等。

GPU虚拟化vGN6

该实例的适用场景包括:

  • 云游戏的云端实时渲染
  • AR/VR的云端实时渲染
  • AI(深度学习DL/机器学习ML)

实例特点包括:

  • GPU:采用NVIDIA T4 GPU
  • 处理器:2.6 GHz主频的Intel® Xeon® Gold 6240 Processor
  • 支持系统盘类型:EBS3.0
  • 支持数据盘类型:EBS3.0
  • vGPU类别
    • vCS:专门用于深度学习,提供1/4*Tesla T4、1/2*Tesla T4两种实例
    • vPC:图形/图像处理场景,提供1/8*Tesla T4、1/2*Tesla T4两种实例

vGN6实例包括的型号和参数规格如下表所示:

型号
GPU(Tesla T4)
GPU显存(GDDR6)
vCPU(核)
内存(DDR4)
网络收发包能力(万PPS)
网络带宽能力(Gbit/s)
vGN6.vPC-2D8 1/8颗 2GB 2 10GB 30 1
vGN6.vCS-4C4 1/4颗 4GB 4 20GB 50 2
vGN6.vCS-10B2 1/2颗 8GB 10 40GB 80 3
vGN6.vPC-10B2 1/2颗 8GB 10 40GB 80 3

其中vPC适用于图形图像处理,vCS适用于CUDA计算,如AI推理等。

文档内容是否对您有帮助?

根本没帮助
文档较差
文档一般
文档不错
文档很好

在文档使用中是否遇到以下问题

内容不全,不深入
内容更新不及时
描述不清晰,比较混乱
系统或功能太复杂,缺乏足够的引导
内容冗长

更多建议

0/200

评价建议不能为空

提交成功!

非常感谢您的反馈,我们会继续努力做到更好!

问题反馈