全部文档
当前文档

暂无内容

如果没有找到您期望的内容,请尝试其他搜索词

文档中心

容器集群支持GPU调度

最近更新时间:2021-03-03 10:31:46

若您的业务有运行机器学习、图像处理的等高运算密度的场景,您可以通过金山云容器集群+GPU快速开始使用GPU容器,无需手动安装nvidia driver和CUDA。

容器服务控制台操作说明

  1. 登录容器服务控制台
  2. 在左侧导航栏中,选择集群,进入集群管理页面。
  3. 点击新建集群,进入创建集群页面。
  4. 节点配置流程中,在选择云服务器机型时选择对应GPU机型,点击确认。

kubectl命令操作说明

不同于CPU和内存,您需要在yaml文件中显式申明你打算使用的GPU的数量,通过在container的resources.limits中设置nvidia.com/gpu,申明你想要使用的GPU数量。

示例:

apiVersion: v1
kind: Pod
metadata:
  name: cuda-vector-add
spec:
  restartPolicy: OnFailure
  containers:
    - name: cuda-vector-add
      image: hub.kce.ksyun.com/ksyun/cuda-vector-add:0.1
      resources:
        limits:
          nvidia.com/gpu: 1   # 指定调用nvida gpu的数量

使用限制

  1. 仅在创建时间为2018年12年27日之后的集群支持GPU调度,若您的集群创建时间早于上述时间且需要使用GPU容器,请提交工单申请。
  2. GPU资源申请仅需要在容器资源的 limits 中配置。
  3. 容器之间不支持共享GPU,每个容器可以申请一个或者多个GPU。
  4. GPU必须以整数为单位被申请使用。
文档导读
纯净模式常规模式

纯净模式

点击可全屏预览文档内容
文档反馈