检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
镜像的一个特征是镜像可以只使用一个地址,但背后有两个镜像,这样在描述工作负载时,可以使用同一个镜像地址,且不用配置亲和性,工作负载描述文件更简洁更容易维护。 亲和性配置说明 CCE在创建节点时,会自动给节点打上kubenetes.io/arch的标签,表示节点架构,如下所示。 kubernetes
如何上传我的镜像到CCE中使用? 镜像的管理是由容器镜像服务(SoftWare Repository)提供的,当前容器镜像服务提供如下上传镜像的方法: 客户端上传镜像 页面上传镜像 如您需要将Harbor镜像仓库平滑地迁移到容器镜像服务,请参考跨云Harbor同步镜像至华为云SWR。
根据定义的部署策略重新调度并重建该容器,以保持预期的实例数量。 Pod优先级抢占 当高优先级的Pod需要资源时,Kubernetes可能会驱逐低优先级的Pod,低优先级Pod可能会被重新调度和启动。 配置更新 更新Deployment或StatefulSet的相关配置(如镜像版本
使用延迟绑定的云硬盘(csi-disk-topology)实现跨AZ调度 使用通用文件存储(SFS 3.0)自动收集异常退出的JVM转储文件 存储多可用区部署的推荐配置
度时,只能调度到拓扑域2或3中。 图1 工作负载亲和/反亲和示意图 配置负载亲和/反亲和调度策略 您可以通过不同的方式配置负载亲和/反亲和调度策略,将Pod调度到满足条件的节点。 通过控制台配置 通过YAML配置 本文示例中,集群内已创建后端应用的工作负载,且带有app=back
录? 节点池扩容失败 节点池批量扩缩容节点时,Kubernetes Event事件存在部分缺失 云服务器无法纳管至节点池时如何修改云服务器配置
组件是否正常。 如果节点和docker正常,而pod调度不到节点上,请确认pod是否做了亲和,排查方法请参见排查项三:检查工作负载的亲和性配置。 如果节点上的资源不足,导致节点调度不上,请扩容或者新增节点。 父主题: 调度策略
调度策略 如何让多个Pod均匀部署到各个节点上? 如何避免节点上的某个容器被驱逐? 为什么Pod在节点不是均匀分布? 如何驱逐节点上的所有Pod? 如何查看Pod是否使用CPU绑核? 节点关机后Pod不重新调度 如何避免非GPU/NPU负载调度到GPU/NPU节点? 为什么Pod调度不到某个节点上?
NetworkManager命令后重新查询状态。 如果上述操作无法解决,建议您进行重置节点操作,参考重置节点。如果您不想重置节点,请联系技术支持人员恢复配置文件后进行升级。 父主题: 升级前检查异常问题排查
rce指标的Pod水平自动扩缩容特性进阶至GA。该特性允许HPA根据Pod中各个容器的资源使用情况来配置自动伸缩,而不仅是Pod的整体资源使用情况,便于为Pod中最重要的容器配置扩缩容阈值。详细使用方式请参考容器资源指标。 传统ServiceAccount令牌清理器(GA) 在Kubernetes1
单击集群名称进入集群,在左侧选择“工作负载”,在右上角单击“创建工作负载”。 配置工作负载信息。 在“容器配置>基本信息”中设置xGPU配额: 显存:显存值单位为MiB,需为正整数,且为128的倍数。若配置的显存超过单张GPU卡的显存,将会出现无法调度状况。 算力:算力值单位为%,需为5的倍数,且最大不超过100。
rce指标的Pod水平自动扩缩容特性进阶至GA。该特性允许HPA根据Pod中各个容器的资源使用情况来配置自动伸缩,而不仅是Pod的整体资源使用情况,便于为Pod中最重要的容器配置扩缩容阈值。详细使用方式请参考容器资源指标。 传统ServiceAccount令牌清理器(GA) 在Kubernetes1
排水任务检查异常处理 检查项内容 检查到集群中存在未完成的排水任务,此时升级可能会导致升级完成后触发排水动作,将运行中的Pod进行驱逐。 解决方案 配置Kubectl命令,具体请参见通过kubectl连接集群。 查看是否存在排水任务,以下为正常回显: kubectl get drainage
实例承受的压力也会同步增加。请根据集群的规模,合理调整插件实例数和容器CPU/内存配额。 表1 CoreDNS插件配额建议 节点数量 推荐配置 实例数 CPU申请值 CPU限制值 内存申请值 内存限制值 50 2500QPS 2 500m 500m 512Mi 512Mi 200
单击CCE节点故障检测下的“升级”。 如果CCE节点故障检测插件版本已经为1.13.6及以上版本,则不需要进行升级操作。 在升级插件页面配置插件参数,然后单击“确定”即可升级CCE节点故障检测插件。 父主题: 模板插件
/tmp/healthy,这会导致Liveness Probe判定Pod处于不健康状态,然后会重启容器。 Liveness Probe高级配置 上面liveness-http的describe命令回显中有如下行。 Liveness: http-get http://:80/ delay=0s
驱逐该节点上的所有Pod。 kubectl drain 192.168.0.160 如果节点上存在绑定了本地存储的Pod或是一些守护进程集管理的Pod,将提示“error: unable to drain node "192.168.0.160" due to error: cannot
适配CCE v1.21集群 1.2.4 v1.15 v1.17 v1.19 插件依赖例行升级 支持配置插件资源规格 1.2.3 v1.15 v1.17 v1.19 适配ARM64节点部署 1.2.2 v1.15 v1.17 v1.19 增强健康检查能力 1.2.1 v1.15 v1
12 v1.15 v1.17 v1.19 v1.21 适配CCE v1.21集群 0.6.6 1.1.6 v1.15 v1.17 v1.19 配置seccomp默认规则 0.6.6 1.1.5 v1.15 v1.17 v1.19 兼容CCE v1.15集群 0.6.6 1.1.3 v1
错误信息为“xx file permission has been changed!”。 解决方案: CCE使用/var/paas目录进行基本的节点管理活动并存储属主和属组均为paas的文件数据。 当前集群升级流程会将/var/paas路径下的文件的属主和属组均重置为paas。 请您参考下