全局配置
设备配置:ConfigMap
备注
以下列出的所有配置都在 hami-scheduler-device ConfigMap 中管理。
您可以通过以下方法之一更新这些配置:
-
直接编辑 ConfigMap:如果 HAMi 已成功安装,您可以使用 kubectl edit 命令手动更新 hami-scheduler-device ConfigMap。
kubectl edit configmap hami-scheduler-device -n <namespace>更改后,重启相关的 HAMi 组件以应用更新的配置。
-
修改 Helm Chart:更新 ConfigMap 中的相应值,然后重新应用 Helm Chart 以重新生成 ConfigMap。
| 参数 | 类型 | 描述 | 默认值 |
|---|---|---|---|
nvidia.deviceMemoryScaling | 浮点数 | NVIDIA 设备显存缩放比例,允许大于 1(启用虚拟设备显存,实验性功能)。对于一块拥有 M 显存的 NVIDIA GPU,若设置为 S,则由该 GPU 拆分出的 vGPU 在 Kubernetes 中将获得 S * M 的显存。 | 1 |
nvidia.deviceSplitCount | 整数 | 单块 GPU 可分配的最大任务数。 | 10 |
nvidia.migstrategy | 字符串 | 设置为 "none" 表示忽略 MIG 功能,设置为 "mixed" 表示以独立资源方式分配 MIG 设备。 | "none" |
nvidia.disablecorelimit | 字符串 | 设置为 "true" 表示禁用核心限制,设置为 "false" 表示启用核心限制。 | "false" |
nvidia.defaultMem | 整数 | 当前任务默认使用的设备显存(MB)。若为 0,则表示使用设备 100% 显存。 | 0 |
nvidia.defaultCores | 整数 | 当前任务默认预留的 GPU 核心百分比。0 表示只要显存够就可用任何 GPU;100 表示独占整块 GPU。 | 0 |
nvidia.defaultGPUNum | 整数 | 默认分配的 GPU 数量。若设为 0,则会被过滤。如果 Pod 的资源未显式设置 nvidia.com/gpu,则 webhook 会检查是否设置了 nvidia.com/gpumem、resource-mem-percentage 或 nvidia.com/gpucores,若设置了其中任一项,则自动添加默认值的 nvidia.com/gpu。 | 1 |
nvidia.memoryFactor | 整数 | 在资源申请时nvidia.com/gpumem的真实值会放大相应的倍数。如果部署了mock-device-plugin, 在node.status.capacity的真实值也会放大对应的倍数。 | 1 |
nvidia.resourceCountName | 字符串 | vGPU 数量的资源名。 | "nvidia.com/gpu" |
nvidia.resourceMemoryName | 字符串 | vGPU 显存大小的资源名。 | "nvidia.com/gpumem" |
nvidia.resourceMemoryPercentageName | 字符串 | vGPU 显存比例的资源名。 | "nvidia.com/gpumem-percentage" |
nvidia.resourceCoreName | 字符串 | vGPU 核心的资源名。 | "nvidia.com/cores" |
nvidia.resourcePriorityName | 字符串 | vGPU 任务优先级的资源名。 | "nvidia.com/priority" |