GPU云服务器针对典型应用场景,提供多种产品类型供用户选择。各类型产品所采用的硬件(GPU、CPU、内存和硬盘)及网络资源配置各有不同。
本节将详细介绍产品适用场景、型号及配置信息。
GPU云服务器可分为两大类,详见下表:
GPU云服务器 | 实例类型 | 适用场景 |
---|---|---|
直通 (Passthrough) | 深度学习、语音、图形/图像学习等常见训练和推理场景 | |
vGPU | 云端渲染和小规模、弹性、灵活的AI应用场景 |
可用于深度学习 、高性能数据分析和高性能计算应用场景。
基于NVIDIA A100,每块GPU具备80GB GDDR6显存,8.1TFLOPS的单精度 (FP32) 计算能力和130 TOPS的INT8计算能力,多卡之间以NVSwitch实现两两互联。
实例特点包括:
P5V实例包括的型号和参数规格如下表所示:
型号 | GPU | GPU显存 (GDDR6) | vCPU (核) | 内存 (GiB) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) | 多队列 |
---|---|---|---|---|---|---|---|
P5V.14A1 | A100*1 | 80GB*1 | 14 | 112 | 60 | 5 | 8 |
P5V.28B2 | A100*2 | 80GB*2 | 28 | 224 | 120 | 10 | 16 |
P5V.56C4 | A100*4 | 80GB*4 | 56 | 448 | 250 | 25 | 16 |
P5V.112D8 | A100*8 | 80GB*8 | 112 | 896 | 500 | 25 | 32 |
该实例适用于推理场景,以及简单的训练场景。
基于NVIDIA Tesla T4,每GPU具备16GB GDDR6显存、8.1TFLOPS的单精度 (FP32) 计算能力和130 TOPS的INT8计算能力。
实例特点包括:
GN6I实例包括的型号和参数规格如下表所示:
型号 | GPU | GPU显存 (GDDR6) | vCPU (核) | 内存 (GiB) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) | 多队列 |
---|---|---|---|---|---|---|---|
GN6I.4A1 | T4*1 | 16GB*1 | 4 | 16 | 50 | 4 | 2 |
GN6I.8A1 | T4*1 | 16GB*1 | 8 | 32 | 80 | 5 | 2 |
GN6I.16A1 | T4*1 | 16GB*1 | 16 | 64 | 120 | 6 | 4 |
GN6I.16B2 | T4*2 | 16GB*2 | 16 | 64 | 120 | 6 | 4 |
GN6I.32B2 | T4*2 | 16GB*2 | 32 | 128 | 240 | 8 | 8 |
GN6I.32C4 | T4*4 | 16GB*4 | 32 | 128 | 240 | 8 | 8 |
该实例适用于深度学习的训练场景和推理场景。
基于NVIDIA Tesla P40,每GPU具备24GB DDR5 GPU内存、12TFLOPS的单精度 (FP32) 计算能力和46TOPS的INT8计算能力。
实例特点包括:
P3实例包括的型号和参数规格如下表所示:
型号 | GPU (Tesla P40) | GPU显存 (GDDR5) | vCPU (核) | 内存 (DDR4) | 数据盘 (本地SSD) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) |
---|---|---|---|---|---|---|---|
P3.28A1 | 1颗 | 24GB*1 | 28 | 56GB | 1000GB | 30 | 3 |
P3.56B2 | 2颗 | 24GB*2 | 56 | 112GB | 2000GB | 40 | 6 |
P3.56C4 | 4颗 | 24GB*4 | 56 | 224GB | 4000GB | 40 | 8 |
该实例适用于语音识别、语音合成、图像识别等推理预测场景。
基于NVIDIA Tesla P4,每GPU具备8GB DDR5 GPU内存、5.5TFLOPS的单精度 (FP32) 计算能力和22TOPS的INT8计算能力,单GPU实例在深度学习的推理预测场景下相比于CPU延时降低15倍,吞吐增加60倍。
实例特点包括:
P3I实例包括的型号和参数规格如下表所示:
型号 | GPU (Tesla P4) | GPU显存 (GDDR5) | vCPU (核) | 内存 (DDR4) | 数据盘 (本地SSD) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) |
---|---|---|---|---|---|---|---|
P3I.14B1 | 1颗 | 8GB*1 | 14 | 120GB | 500GB | 20 | 3 |
P3I.28C2 | 2颗 | 8GB*2 | 28 | 240GB | 1000GB | 30 | 6 |
实例特点包括:
该实例的适用场景以及采用的硬件与P3I一致,包括的型号和参数规格如下表所示:
型号 | GPU (Tesla P4) | GPU显存 (GDDR5) | vCPU (核) | 内存 (DDR4) | 数据盘 (本地SSD) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) |
---|---|---|---|---|---|---|---|
P3IN.4A1 | 1颗 | 8GB*1 | 4 | 16GB | 120GB | 10 | 1.5 |
P3IN.8B1 | 1颗 | 8GB*1 | 8 | 32GB | 180GB | 20 | 1.5 |
P3IN.16C2 | 2颗 | 8GB*2 | 16 | 64GB | 360GB | 30 | 3 |
P3IN.32D4 | 4颗 | 8GB*4 | 32 | 128GB | 720GB | 40 | 6 |
该实例适用于深度学习的训练场景和推理场景。
基于NVIDIA Tesla V100,每GPU具备16GB HBM2 GPU内存、15TFLOPS的单精度 (FP32) 计算能力和125TFLOPS的混合精度计算能力。
实例特点包括:
P4V实例包括的型号和参数规格如下表所示:
型号 | GPU (Tesla V100) | GPU显存 (HBM2) | vCPU (核) | 内存 (DDR4) | 数据盘 (本地SSD) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) |
---|---|---|---|---|---|---|---|
P4V.8A1 | 1颗 | 16GB*1 | 8 | 32GB | 240GB | 20 | 1.5 |
P4V.16B2 | 2颗 | 16GB*2 | 16 | 64GB | 480GB | 30 | 3 |
P4V.28C4 | 4颗 | 16GB*4 | 28 | 128GB | 960GB | 30 | 6 |
P4V.56D8 | 8颗 | 16GB*8 | 56 | 256GB | 1920GB | 40 | 8 |
该实例的适用场景包括:
实例特点包括:
vGN6实例包括的型号和参数规格如下表所示:
型号 | GPU (Tesla T4) | GPU显存 (GDDR6) | vCPU (核) | 内存 (DDR4) | 网络收发包能力 (万PPS) | 网络带宽能力 (Gbit/s) |
---|---|---|---|---|---|---|
vGN6.vCS-10B2 | 1/2颗 | 8GB | 10 | 40GB | 80 | 3 |
vGN6.vCS-4C4 | 1/4颗 | 4GB | 4 | 20GB | 50 | 2 |
vGN6.vPC-2D8 | 1/8颗 | 2GB | 2 | 10GB | 30 | 1 |
其中vPC适用于图形图像处理,vCS适用于CUDA计算,如AI推理等。
关于vGN6的具体配置方法,可以参考vGPU用户指南。
文档内容是否对您有帮助?
评价建议不能为空
非常感谢您的反馈,我们会继续努力做到更好!