检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
要获取访问云硬盘、弹性文件、对象存储等服务的权限。 网络类服务 CCE支持集群下容器发布为对外访问的服务,因此需要获取访问虚拟私有云、弹性负载均衡等服务的权限。 容器与监控类服务 CCE集群下容器支持镜像拉取、监控和日志分析等功能,需要获取访问容器镜像、应用管理等服务的权限。 当
更的规格一致。 常见问题 配置了CPU管理策略绑核的节点,在变更规格后,可能会无法重新拉起或创建工作负载。如发生此种情况请参见CCE节点变更规格后,为什么无法重新拉起或创建工作负载?解决。 父主题: 规格配置变更
实施步骤 整体应用容器化改造 改造流程 分析应用 准备应用运行环境 编写开机运行脚本 编写Dockerfile文件 制作并上传镜像 创建容器工作负载 父主题: 企业管理应用容器化改造(ERP)
本地持久卷(Local PV) 本地持久卷概述 在存储池中导入持久卷 通过动态存储卷使用本地持久卷 在有状态负载中动态挂载本地持久卷 父主题: 存储
启用该能力后,可增强集群业务的吞吐量,提高业务运行性能。 修改完成后,单击“确认配置”。 配置完成后,可以在工作负载或Volcano Job中使用Gang调度能力。 创建工作负载使用Gang调度能力 首先创建PodGroup,需指定minMember和minResources信息如下:
云硬盘存储卷 云硬盘存储卷概述 使用kubectl自动创建云硬盘 使用kubectl对接已有云硬盘 使用kubectl部署带云硬盘存储卷的工作负载 父主题: 存储管理-Flexvolume(已弃用)
name: system:authenticated apiGroup: rbac.authorization.k8s.io 创建工作负载,并配置内核参数值,且需要与1中开启net.core.somaxconn的节点亲和。 apiVersion: apps/v1 kind: Deployment
为docker,采集不到日志。 解决方案: 请检查工作负载所在节点的容器存储模式是否为Device Mapper,Device Mapper不支持采集容器内日志(创建日志策略时已提示此限制)。检查方法如下: 进入业务工作负载所在节点。 执行docker info | grep "Storage
规格配置变更 如何变更CCE集群中的节点规格? CCE节点池内的节点变更规格后会有哪些影响? CCE节点变更规格后,为什么无法重新拉起或创建工作负载? CCE集群的节点可以更改IP吗? 父主题: 节点
存储插件(everest)健康程度 日志采集插件(log-agent)健康程度 域名解析插件(coredns)健康程度 业务节点负载情况 业务节点状态 Pod配置健康程度 Pod负载情况 Pod运行状态 更多内容请参见诊断项及修复方案。 父主题: 健康中心
GPU虚拟化 监控GPU资源指标 CCE AI套件(NVIDIA GPU)插件使用DCGM-Exporter监控GPU指标 基于GPU监控指标的工作负载弹性伸缩配置 GPU虚拟化节点弹性伸缩配置 GPU故障处理 GPU监控指标说明 父主题: 调度
弹性伸缩 使用HPA+CA实现工作负载和节点联动弹性伸缩 CCE容器实例弹性伸缩到CCI服务 基于Prometheus指标的弹性伸缩实践 基于ELB监控指标的弹性伸缩实践 通过Nginx Ingress对多个应用进行弹性伸缩
Burst功能,关闭CPU Burst仅针对新建的Pod生效。 在已打开混合部署的节点池中部署工作负载。以nginx为例,设置CPU Request为2,Limit为4,并为工作负载创建集群内访问的Service。 apiVersion: apps/v1 kind: Deployment
在CCE集群中使用容器的安全配置建议 在CCE集群中使用镜像服务的安全配置建议 在CCE集群中使用密钥Secret的安全配置建议 在CCE集群中使用工作负载Identity的安全配置建议
多种维度的成本可视化与成本分摊策略。 支持长期的成本数据存储与检索:最大支持长达2年的成本分析。 分钟级负载计费,轻松应对快速弹性场景:针对应用快速弹性场景,支持分钟级的负载发现与计费能力,让所有成本无一遗漏。 约束与限制 PVC存储费用:当前只统计云硬盘(EVS)类型存储费用,
集群调度器配置 调度算法 部署策略 控制器性能配置 集群控制器并发配置 节点生命周期控制器(node-lifecycle-controller)配置 负载弹性伸缩控制器(horizontal-pod-autoscaler-controller)配置 Pod回收控制器(pod-garbage-
v1.23集群:v1.23.9-r0及以上版本 v1.25集群:v1.25.4-r0及以上版本 通过kubectl命令行设置 您可以通过对工作负载添加annotations来设置是否开启Pod延时启动功能,如下所示。 apiVersion: apps/v1 kind: Deployment
动,并开启支持GPU虚拟化。 图1 异构资源配置 单击“确认配置”进行保存。 步骤三:创建GPU虚拟化负载并扩容 参考使用GPU虚拟化章节,创建使用GPU虚拟化资源的无状态负载,并将GPU申请量设为大于集群现有GPU资源上限。例如:集群中有16GiB显存的资源,假设每个Pod占用
数据请事先备份。 工作节点如在ECS侧自行挂载了数据盘,重置完后会清除挂载信息,重置完成后请重新执行挂载行为,数据不会丢失。 节点上的工作负载实例的IP会发生变化,但是不影响容器网络通信。 云硬盘必须有剩余配额。 操作过程中,后台会把当前节点设置为不可调度状态。 节点重置会清除用户单独添加的
可扩容节点或迁移节点中的pod至其他节点。 场景二 pod的内存的limit设置较小,实际使用率超过limit,导致容器触发了OOMkill。 解决方法: 扩大工作负载内存的limit设置。 示例 本例将创建一个Pod尝试分配超过其限制的内存,如下这个Pod的配置文档,它申请50M的内存, 内存限制设置为100M。