GPU云服务器提供GPU加速的弹性计算服务,可以用于科学计算,AI深度学习,图形图像渲染与基于GPU的音视频编解码等诸多应用场景。容器实例已支持GPU云服务器,您可以指定容器实例底层所使用的GPU云服务器套餐规格来创建实例。
容器实例提供的GPU云服务器类型包括:
GPU云服务器 |
实例类型 |
适用场景 |
---|---|---|
直通 (Passthrough) | GPU推理II型GN6I GPU推理计算型P3I GPU推理计算型P3IN GPU通用计算型P4V |
深度学习、语音、图形/图像学习等常见训练和推理场景 |
vGPU | GPU虚拟化vGN6 GPU虚拟化vGN5 |
云端渲染和小规模、弹性、灵活的AI应用场景 |
注:
- 若要在容器实例中使用GPU云服务器,必须在Pod metadata中添加Annotation来指定GPU机型,目前不支持根据容器实例的GPU Limit值自动匹配GPU机型。指定GPU机型后,在Container配置中需添加
nvidia.com/gpu
字段声明GPU资源。- 通过Deployment等控制器创建的Pod,如果Pod申请的GPU数量超过机型的GPU数量,会出现Pod在创建失败后不断重复创建的情况。为避免此情况发生,请确保Pod在
nvidia.com/gpu
字段中声明的GPU数量不超过Annotation中指定机型的GPU数量。
示例如下:
apiVersion: apps/v1
kind: Deployment
metadata:
name: nginx
labels:
app: nginx
spec:
replicas: 2
selector:
matchLabels:
app: nginx
template:
metadata:
labels:
app: nginx
annotations:
k8s.ksyun.com/kci-instance-type: P3I.8A1 # 根据需要指定GPU机型
k8s.ksyun.com/kci-base-system-disk-size: "50" # vGPU类型的云服务器由于机型限制,需指定系统盘规格为50G或以上
spec:
containers:
- name: nginx
image: nginx:latest
resources:
limits:
nvidia.com/gpu: 1 # 指定GPU卡数
ports:
- containerPort: 80
nodeName: rbkci-virtual-kubelet # 指定nodeName将Pod调度到虚拟节点上
该实例适用于推理场景,以及简单的训练场景。
基于NVIDIA Tesla T4,每GPU具备16GB GDDR6显存、8.1TFLOPS的单精度 (FP32) 计算能力和130 TOPS的INT8计算能力。
实例特点包括:
GN6I实例包括的型号和参数规格如下表所示:
型号 |
GPU(Tesla T4) |
GPU显存(GDDR6) |
vCPU(核) |
内存(GiB) |
网络收发包能力(万PPS) |
网络带宽能力(Gbit/s) |
多队列 |
---|---|---|---|---|---|---|---|
GN6I.4A1 | 1颗 | 16GB*1 | 4 | 16 | 50 | 4 | 2 |
GN6I.8A1 | 1颗 | 16GB*1 | 8 | 32 | 80 | 5 | 2 |
GN6I.16A1 | 1颗 | 16GB*1 | 16 | 64 | 120 | 6 | 4 |
GN6I.16B2 | 2颗 | 16GB*2 | 16 | 64 | 120 | 6 | 4 |
GN6I.32B2 | 2颗 | 16GB*2 | 32 | 128 | 240 | 8 | 8 |
GN6I.32C4 | 4颗 | 16GB*4 | 32 | 128 | 240 | 8 | 8 |
该实例适用于语音识别、语音合成、图像识别等推理预测场景。
基于NVIDIA Tesla P4,每GPU具备8GB DDR5 GPU内存、5.5TFLOPS的单精度 (FP32) 计算能力和22TOPS的INT8计算能力,单GPU实例在深度学习的推理预测场景下相比于CPU延时降低15倍,吞吐增加60倍。
实例特点包括:
P3I实例包括的型号和参数规格如下表所示:
型号 |
GPU(Tesla P4) |
GPU显存(GDDR5) |
vCPU(核) |
内存(DDR4) |
数据盘(本地SSD) |
网络收发包能力(万PPS) |
网络带宽能力(Gbit/s) |
---|---|---|---|---|---|---|---|
P3I.8A1 | 1颗 | 8GB*1 | 8 | 16GB | 0GB | 20 | 3 |
P3I.14D1 | 1颗 | 8GB*1 | 14 | 32GB | 0GB | 20 | 3 |
P3I.14B1 | 1颗 | 8GB*1 | 14 | 120GB | 500GB | 20 | 3 |
P3I.28C2 | 2颗 | 8GB*2 | 28 | 240GB | 1000GB | 30 | 6 |
实例特点包括:
具体套餐信息:该实例的适用场景以及采用的硬件与P3I一致,包括的型号和参数规格如下表所示:
型号 |
GPU(Tesla P4) |
GPU显存(GDDR5) |
vCPU(核) |
内存(DDR4) |
数据盘(本地SSD) |
网络收发包能力(万PPS) |
网络带宽能力(Gbit/s) |
---|---|---|---|---|---|---|---|
P3IN.4A1 | 1颗 | 8GB*1 | 4 | 16GB | 120GB | 10 | 1.5 |
P3IN.8B1 | 1颗 | 8GB*1 | 8 | 32GB | 180GB | 20 | 1.5 |
P3IN.16C2 | 2颗 | 8GB*2 | 16 | 64GB | 360GB | 30 | 3 |
P3IN.32D4 | 4颗 | 8GB*4 | 32 | 128GB | 720GB | 40 | 6 |
该实例适用于深度学习的训练场景和推理场景。
基于NVIDIA Tesla V100,每GPU具备16GB HBM2 GPU内存、15TFLOPS的单精度 (FP32) 计算能力和125TFLOPS的混合精度计算能力。
实例特点包括:
P4V实例包括的型号和参数规格如下表所示:
型号 |
GPU(Tesla V100) |
GPU显存(HBM2) |
vCPU(核) |
内存(DDR4) |
数据盘(本地SSD) |
网络收发包能力(万PPS) |
网络带宽能力(Gbit/s) |
---|---|---|---|---|---|---|---|
P4V.8A1 | 1颗 | 16GB*1 | 8 | 32GB | 240GB | 20 | 1.5 |
P4V.16B2 | 2颗 | 16GB*2 | 16 | 64GB | 480GB | 30 | 3 |
P4V.28C4 | 4颗 | 16GB*4 | 28 | 128GB | 960GB | 30 | 6 |
P4V.56D8 | 8颗 | 16GB*8 | 56 | 256GB | 1920GB | 40 | 8 |
该实例的适用场景包括:
实例特点包括:
vGN6实例包括的型号和参数规格如下表所示:
型号 |
GPU(Tesla T4) |
GPU显存(GDDR6) |
vCPU(核) |
内存(DDR4) |
网络收发包能力(万PPS) |
网络带宽能力(Gbit/s) |
---|---|---|---|---|---|---|
vGN6.vCS-4C4 | 1/4颗 | 4GB | 4 | 20GB | 50 | 2 |
vGN6.vCS-10B2 | 1/2颗 | 8GB | 10 | 40GB | 80 | 3 |
vCS适用于CUDA计算,如AI推理等。
该实例的适用场景包括:
实例特点包括:
vGN5实例包括的型号和参数规格如下表所示:
型号 |
GPU(Tesla P4) |
GPU显存(GDDR5) |
vCPU(核) |
内存(DDR4) |
数据盘(本地SSD) |
网络收发包能力(万PPS) |
网络带宽能力(Gbit/s) |
---|---|---|---|---|---|---|---|
vGN5.vCS-8B2 | 1/2颗 | 8GB | 8 | 48GB | 400GB | 20 | 2 |
vGN5.vCS-16A1 | 1颗 | 16GB | 16 | 96GB | 800GB | 30 | 3 |
vCS机型适用于CUDA计算,如AI推理等。
文档内容是否对您有帮助?
评价建议不能为空
非常感谢您的反馈,我们会继续努力做到更好!