容器集群支持GPU调度

最近更新时间:2021-03-03 10:31:46

查看PDF

若您的业务有运行机器学习、图像处理的等高运算密度的场景,您可以通过金山云容器集群+GPU快速开始使用GPU容器,无需手动安装nvidia driver和CUDA。

容器服务控制台操作说明

  1. 登录容器服务控制台
  2. 在左侧导航栏中,选择集群,进入集群管理页面。
  3. 点击新建集群,进入创建集群页面。
  4. 节点配置流程中,在选择云服务器机型时选择对应GPU机型,点击确认。

kubectl命令操作说明

不同于CPU和内存,您需要在yaml文件中显式申明你打算使用的GPU的数量,通过在container的resources.limits中设置nvidia.com/gpu,申明你想要使用的GPU数量。

示例:

apiVersion: v1
kind: Pod
metadata:
  name: cuda-vector-add
spec:
  restartPolicy: OnFailure
  containers:
    - name: cuda-vector-add
      image: hub.kce.ksyun.com/ksyun/cuda-vector-add:0.1
      resources:
        limits:
          nvidia.com/gpu: 1   # 指定调用nvida gpu的数量

使用限制

  1. 仅在创建时间为2018年12年27日之后的集群支持GPU调度,若您的集群创建时间早于上述时间且需要使用GPU容器,请提交工单申请。
  2. GPU资源申请仅需要在容器资源的 limits 中配置。
  3. 容器之间不支持共享GPU,每个容器可以申请一个或者多个GPU。
  4. GPU必须以整数为单位被申请使用。

文档内容是否对您有帮助?

根本没帮助
文档较差
文档一般
文档不错
文档很好

在文档使用中是否遇到以下问题

内容不全,不深入
内容更新不及时
描述不清晰,比较混乱
系统或功能太复杂,缺乏足够的引导
内容冗长

更多建议

0/200

评价建议不能为空

提交成功!

非常感谢您的反馈,我们会继续努力做到更好!

问题反馈