检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
com/gpu资源(即配置nvidia.com/gpu为小数,例如0.5)时将通过虚拟化GPU提供,实现GPU显存隔离,按照设定值的百分比为容器分配GPU显存(例如分配0.5×16GiB=8GiB的GPU显存,该数值需为128MiB的整数倍否则会自动向下取整)。配置nvidia.co
加粗标红字段需要重点关注,其中参数说明如下: 表3 对象存储卷PV配置参数说明 参数 描述 name PV资源的名称,集群下唯一。 storage 存储容量,单位为Gi。此处配置为固定值1Gi。 driver 挂载依赖的存储驱动,对象存储配置为“obs.csi.everest.io”。 fsType
加粗标红字段需要重点关注,其中参数说明如下: 表3 对象存储卷PV配置参数说明 参数 描述 name PV资源的名称,集群下唯一。 storage 存储容量,单位为Gi。此处配置为固定值1Gi。 driver 挂载依赖的存储驱动,对象存储配置为“obs.csi.everest.io”。 fsType
过修改节点池配置中的max-pods参数,修改节点最大实例数。详情请参见节点池配置管理。 默认场景下,节点最大实例数最多可调整至256。如果您期望提升节点上的部署密度,您可以提交工单申请调整节点最大实例数,最大支持修改至512个实例。 图2 创建节点时的最大实例数配置 根据节点规格不同,节点默认最大实例数如表1所示。
MasterEIPRequest(); MasterEIPRequestSpecSpec specSpec = new MasterEIPRequestSpecSpec(); specSpec.withId("a757a69e-f920-455a-b1ba-d7a22db0fd50");
EulerOS 2.0。 集群中需要安装Volcano 1.9.0及以上版本的插件,且开启混合部署开关。 操作步骤 登录CCE控制台,单击集群名称进入集群。 在左侧导航栏中选择“节点管理”,在需要开启CPU Burst弹性限流的节点池中,单击“更多 > 混部配置”。 确认“节点池混部开关”及“CPU
软件以修复潜在问题。 安装步骤 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到opa-gatekeeper插件,单击“安装”。 在安装插件页面,设置“规格配置”。 表1 插件规格配置 参数 参数说明 插件规格 该插件可配置“高可用”、“单实例”或“自定义”规格。
为什么登录虚拟机VNC界面会间歇性出现Dead loop on virtual device gw_11cbf51a, fix it urgently? 问题现象 VPC网络模式的集群,登录虚拟机出现 Dead loop on virtual device gw_11cbf51a
# 插件版本为2.0.0及以上时,驱动安装路径更改,需执行以下命令: cd /usr/local/nvidia/bin && ./nvidia-smi 登录CCE控制台,单击集群名称进入集群,在左侧选择“配置中心”。 切换至“异构资源配置”页签,在“节点池自定义驱动”下方选择
切分20%的流量到新版本后,新版本出现异常,则快速将流量切回老版本。 蓝绿发布提供了一种零宕机的部署方式,是一种以可预测的方式发布应用的技术,目的是减少发布过程中服务停止的时间。在保留老版本的同时部署新版本,将两个版本同时在线,新版本和老版本相互热备,通过切换路由权重的方式(非0即100
IaaS、PaaS 和 SaaS 类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API 网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云安全性的构建思
则可以参考按需产品周期结算说明。云容器引擎的按需计费模式按小时进行结算。 按需计费资源的扣费时间可能会滞后于结算周期,例如:按小时结算的云服务器在8:30删除资源,但是8:00~9:00期间产生的费用,通常会在10:00左右才进行扣费。在“费用中心 > 账单管理 > 流水和明细账单
CCE集群支持创建裸金属节点(容器隧道网络) 支持AI加速型节点(搭载海思Ascend 310 AI处理器),适用于图像识别、视频处理、推理计算以及机器学习等场景 支持配置docker baseSize 支持命名空间亲和调度 支持节点数据盘划分用户空间 支持集群cpu管理策略 支持集群下的节点跨子网(容器隧道网络)
CCE集群支持创建裸金属节点(容器隧道网络) 支持AI加速型节点(搭载海思Ascend 310 AI处理器),适用于图像识别、视频处理、推理计算以及机器学习等场景 支持配置docker baseSize 支持命名空间亲和调度 支持节点数据盘划分用户空间 支持集群cpu管理策略 支持集群下的节点跨子网(容器隧道网络)
containerPort: 80 同时,Volcano还支持设置负载所属队列和抢占属性等,可通过Pod的注解实现。目前Volcano支持的Pod注解配置如下: 表1 Volcano支持的Pod注解 Pod注解 说明 scheduling.volcano.sh/queue-name: "<queue-name>"
支持插件实例AZ反亲和配置 支持在竞价实例被释放前给节点加污点,驱逐节点上的pod 插件挂载节点时区 0.8.10 1.18.10 v1.19 v1.21 v1.23 v1.25 配置界面优化 优化DiskSlow检查项,支持阈值配置 优化NTPProblem检查项,支持阈值配置 支持插件实例AZ反亲和配置
如何使容器重启后所在容器IP仍保持不变? 单节点场景 如果集群下仅有1个节点时,要使容器重启后所在容器IP保持不变,需在工作负载中配置主机网络,在工作负载的yaml中的spec.spec.下加入hostNetwork: true字段。 多节点场景 如果集群下有多个节点时,除进行以
作负载运行的节点可访问对应的企业版镜像仓库实例。 通过界面操作 创建SWR企业版镜像仓库的密钥。 单击集群名称进入集群,在左侧导航栏选择“配置与密钥”,在右侧选择“密钥”页签,单击右上角“创建密钥”,密钥类型必须选择为kubernetes.io/dockerconfigjson。详细操作请参见创建密钥。
则可以使用节点亲和调度,确保高性能计算的Pod最终运行在GPU节点上。 配置节点亲和调度策略 您可以通过不同的方式配置节点亲和性调度策略,将Pod调度到满足条件的节点。 通过控制台配置 通过YAML配置 本文示例中,集群内已创建GPU节点,并设置标签为gpu=true,您可以通过该标签将Pod调度到GPU节点上。
资源。 在CCE控制台安装插件,然后再卸载保证之前的残留的插件资源清理干净,卸载完成后再进行第二次安装插件,安装成功即可。 第一次安装插件时可能因之前的插件残留资源而导致安装后插件状态异常,属正常现象,这时在控制台卸载插件能保证这些残留资源清理干净,再次安装插件能正常运行。 父主题: