检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在单集群中,不同命名空间中的数据彼此隔离。使应用可以共享同个集群的服务,也能够互不干扰。若您不设置命名空间,系统会默认使用default命名空间。 * 实例数量 工作负载的实例数量。工作负载可以有一个或多个实例,用户可以设置具体实例个数,默认为2,可自定义设置为1。 每个工作负载实例都由相同的容器部署而成。
作负载中的Pod数量。 图1 CronFederatedHPA工作原理 单独使用CronFederatedHPA 当不使用FederatedHPA策略,仅使用CronFederalHPA策略时,CronFederalHPA策略直接作用于工作负载,定时扩缩Pod数量。您可以通过设置
工作负载基本信息设置 参数 描述 负载类型 选择“无状态负载”。 命名空间 选择工作负载所需部署的命名空间。 描述 输入工作负载的描述信息。 实例数量 设置工作负载中各集群的实例数,默认为2。 设置工作负载容器配置。 工作负载中的Pod内可配置多个容器,您可以单击右侧“添加容器”为Pod
规格单价(元/10vCPU/月) 费用(元) 2023/07/16 09:00:00至2023/08/16 23:59:59 1 华为云集群vCPU数量: 80 本地集群vCPU数量: 40 华为云集群单价 : 300 本地集群单价: 900 华为云集群管理服务费用: 8 * 1 * 300 = 2400
od数从1开始,那么在上述配置下,每隔60秒的扩容Pod数的变化如下:1 > 10 > 100 > ... 。需要注意的是,扩缩后的Pod数量不能超过FedratedHPA策略配置的最大Pod数。 Percent类型对资源消耗的波动较大,如果您希望资源消耗可控,可以按绝对数—Pods类型来配置。
节点--XGPU设备算力使用率 节点--XGPU设备数量 节点--XGPU设备显存分配量 GPU卡--XGPU设备显存使用率 GPU卡--XGPU设备显存分配量 GPU卡--XGPU设备显存分配率 GPU卡--XGPU设备算力使用率 GPU卡--XGPU设备数量 GPU卡--调度策略 GPU卡--不健康的XGPU设备数量
负载名称:新增工作负载的名称,命名必须唯一。 命名空间:选择工作负载所在命名空间。如需新建命名空间,请参见创建命名空间。 描述:工作负载的描述信息。 实例数量:设置多集群的工作负载中各集群的实例数。用户可以设置具体实例个数,默认为2。每个工作负载实例都由相同的容器部署而成。在UCS中可以通过设置
供相应的诊断结果和修复建议。 约束与限制 集群版本高于v1.17。 集群处于“运行中”状态。 查看巡检详情 选择一个容器舰队或者未加入舰队的集群。 图1 选择舰队或未加入舰队的集群 单击“健康诊断”页签,您可通过健康诊断功能查看各个集群的正常比例及风险数量。 图2 健康诊断 下拉
负载名称:新增工作负载的名称,命名必须唯一。 命名空间:选择工作负载所在命名空间。如需新建命名空间,请参见创建命名空间。 描述:工作负载的描述信息。 实例数量:设置多集群的工作负载中各集群的实例数。用户可以设置具体实例个数,默认为2。每个工作负载实例都由相同的容器部署而成。在UCS中可以通过设置
该配额值。 舰队配额:用户拥有的舰队数量上限。 权限配额:用户可以在“权限管理”页面创建的权限数量上限。 集群联邦配额:用户可以开通的集群联邦数量上限。不可申请扩大配额。 容器智能分析实例配额:用户可以创建的容器智能分析实例数量上限。不可申请扩大配额。 表1 UCS配额项 配额项
“集群节点数 * Pod规模”等于4900w),因此建议CPU申请值为4000m,限制值为5500m。 内存申请值:建议每1000个节点分配2.4G内存,每1w个Pod分配1G内存,二者叠加进行计算。(该计算方法相比表1中的建议值会存在一定的误差,通过查表或计算均可) 即:内存申请值
请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,应用创建失败。 挂载高危目录的情况下 ,建议使用低权限账号启动,否则可能会造成宿主机高危文件被破坏。 子路径
卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户定义使用的GPU数量,提高GPU利用率。 GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存大小,算力分配粒度为5%GPU,显存分配粒度达MB级别。
nvidia.com/gpu 否 通过 nvidia.com/gpu 指定申请GPU的数量,支持申请设置为小于1的数量,比如 nvidia.com/gpu: 0.5,这样可以多个Pod共享使用GPU。GPU数量小于1时,不支持跨GPU分配,如0.5 GPU只会分配到一张卡上。 指定nvidia
请不要挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 挂载高危目录的情况下 ,建议使用低权限账号启动,否则可能会造成宿主机高危文件被破坏。 子路径
负载均衡规格。 网关负载: 网关实例数:设置网关工作负载Pod数量。默认值为1。输入值必须在0到100之间。 CPU配额:申请:容器需要使用的最小CPU值,默认0.10Core。限制:允许容器使用的CPU最大值。建议设容器配额的最高限额,避免容器资源超额导致系统故障。 内存配额:
minReplicas 是 String 触发策略时,工作负载内Pod数量所能缩容到的最小值,请输入1-299之间的正整数。 maxReplicas 是 String 触发策略时,工作负载内Pod数量所能扩容到的最大值,请输入1-1500之间的正整数,且输入值需大于实例范围最小值。
的地区访问失败。 TTL:指解析记录在本地DNS服务器的缓存时间,默认值为“300s/5分钟”。如果您的服务地址经常更换,建议TTL值设置相对小些,反之,建议设置相对大些。 权重:当域名在同一解析线路中有多条相同类型的解析记录时,可以通过“权重”设置解析记录集的响应比例。详细信息请参考配置权重解析。
2023/06/15 08:00:00至2023/06/15 09:00:00 1 华为云集群vCPU数量: 40 * 30 / 60 + 60 * 30 / 60 = 50 本地集群vCPU数量: 10 * 30 / 60 + 30 * 30 / 60 = 20 华为云集群单价 : 0.0556
输入可执行的命令,例如“/run/server”。 若运行命令有多个,多个命令之间用空格进行分隔。若命令本身带空格,则需要加引号("")。 说明: 多命令时,运行命令建议用/bin/sh或其他的shell,其他全部命令作为参数来传入。 运行参数 输入控制容器运行命令参数,例如--port=8080。 若参数有多个,可添加运行参数。