最近更新时间:2021-03-03 10:31:46
若您的业务有运行机器学习、图像处理的等高运算密度的场景,您可以通过金山云容器集群+GPU快速开始使用GPU容器,无需手动安装nvidia driver和CUDA。
不同于CPU和内存,您需要在yaml文件中显式申明你打算使用的GPU的数量,通过在container的resources.limits
中设置nvidia.com/gpu
,申明你想要使用的GPU数量。
示例:
apiVersion: v1
kind: Pod
metadata:
name: cuda-vector-add
spec:
restartPolicy: OnFailure
containers:
- name: cuda-vector-add
image: hub.kce.ksyun.com/ksyun/cuda-vector-add:0.1
resources:
limits:
nvidia.com/gpu: 1 # 指定调用nvida gpu的数量
limits
中配置。纯净模式