检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
0网络提供了容器网卡动态预热的能力,在尽可能提高IP的资源利用率的前提下,尽可能加快Pod的启动速度。 约束与限制 CCE Turbo的1.19.16-r4、1.21.7-r0、1.23.5-r0、1.25.1-r0及以上版本支持用户配置容器网卡动态预热;支持集群级别的全局配置以及
S Turbo,从而更加经济合理的利用SFS Turbo存储容量。 约束与限制 仅支持1.15+集群。 集群必须使用everest插件,插件版本要求1.1.13+。 不支持安全容器。 使用everest 1.2.69之前或2.1.11之前的版本时,使用子目录功能时不能同时并发创建
S Turbo,从而更加经济合理的利用SFS Turbo存储容量。 约束与限制 仅支持1.15+集群。 集群必须使用everest插件,插件版本要求1.1.13+。 不支持安全容器。 使用everest 1.2.69之前或2.1.11之前的版本时,使用子目录功能时不能同时并发创建
大规模容器集群管理的便捷性。 云容器引擎基于业界主流的Kubernetes实现,完全兼容Kubernetes/Docker社区原生版本,与社区最新版本保持紧密同步,完全兼容Kubernetes API和Kubectl。 云容器引擎对比自建Kubernetes集群 表1 云容器引擎和自建Kubernetes集群对比
启用volcano增强能力:需安装Volcano 调度器插件。开启后为您提供资源利用率优化、AI任务性能增强、异构资源管理等高级调度能力,提升集群资源利用率,节约使用成本。 Volcano调度器增强配置: 业务优先级保障调度 资源利用率优化调度(Volcano调度器支持) AI任务性能增强调度(Volcano调度器支持)
约束限制 仅以下指定版本的CCE Turbo集群支持用户配置Pod固定IP: v1.19集群:v1.19.16-r6及以上版本 v1.21集群:v1.21.9-r0及以上版本 v1.23集群:v1.23.7-r0及以上版本 v1.25集群:v1.25.3-r0及以上版本 v1.25以上版本集群
25.13-r0、v1.27.10-r0、v1.28.8-r0、v1.29.4-r0及以上版本的集群中支持选择系统组件的存储位置,且配套使用CCE节点故障检测插件时需安装1.19.2及以上版本的插件。 数据盘 如果“系统组件存储”选择“数据盘”,至少需要添加一块默认数据盘,供容器运
基于GPU监控指标的工作负载弹性伸缩配置 集群中包含GPU节点时,可通过GPU指标查看节点GPU资源的使用情况,例如GPU利用率、显存使用量等。在获取GPU监控指标后,用户可根据应用的GPU指标配置弹性伸缩策略,在业务波动时自适应调整应用的副本数量。 前提条件 目标集群已创建,且
器化应用。 步骤四:使用kubectl命令行工具连接集群 在使用Helm模板前,您需要在一台虚拟机上使用kubectl命令行工具连接刚刚创建的集群。 步骤五:安装Helm 在安装kubectl工具的虚拟机上,您需要继续安装Helm工具。 步骤六:部署模板 使用Helm安装命令在集
整Pod实例数的功能,优化资源利用率。 前提条件 集群中已安装NGINX Ingress控制器插件。 集群中已安装云原生监控插件(部署模式需要选择“本地数据存储”)。 已使用kubectl命令行工具或CloudShell连接集群。 已安装压力测试工具Apache Benchmark。
30d 1.21以前版本的集群中,Pod中获取Token的形式是通过挂载ServiceAccount的Secret来获取Token,这种方式获得的Token是永久的。该方式在1.21及以上的版本中不再推荐使用,并且根据社区版本迭代策略,在1.25及以上版本的集群中,Servic
npd:表示安装CCE节点故障检测插件。 cie-collector:表示安装云原生监控插件。 log-agent:表示安装云原生日志采集插件。 virtual-kubelet:表示安装CCE突发弹性引擎(对接 CCI)插件。 version 否 String 插件版本。 可登录CCE控制
系统将根据节点池指定的驱动版本进行安装,仅对节点池新建节点生效。 更新驱动版本后,新建节点直接生效,存量节点需重启节点生效。 安装2.7.2及以上版本的GPU插件时,支持以节点池级别配置XGPU虚拟化开关。 NPU配置 当不开启驱动选择时,无法根据用户诉求指定驱动版本,无法依靠插件进行驱
检查更新负载均衡是否成功 事件类 云原生日志采集插件 不涉及 Pod内存不足OOM 检查Pod是否OOM 事件类 节点故障检测插件(1.18.41及以上版本) 云原生日志采集插件(1.3.2及以上版本) PodOOMKilling 节点资源规则集 Kube持久卷使用率高 检查节点上持久卷使用率是否过高
实例数量:使用默认。 实例配置:镜像版本选择1.5.2,其他参数保持默认。 单击“部署灰度版本”,待版本启动进度为100%,表明灰度版本部署成功。 图6 查看灰度版本状态 配置灰度策略 为灰度版本设置灰度策略,灰度版本会根据配置的流量配比引流老版本中的部分或全部流量。 灰度版本部署成功后,单击“配置灰度策略”。
已创建CCE集群,且配置了kubectl命令行工具。详细操作可参考通过kubectl连接集群。 集群上安装了CCE AI套件(GPU/NPU),可参考CCE AI套件(NVIDIA GPU)和 CCE AI套件(Ascend NPU)。其中NPU驱动版本应大于23.0。 操作步骤 您可以在
xporter组件。 DCGM-Exporter组件在CCE AI套件(NVIDIA GPU)插件2.1.24、2.7.40及以上版本集成,其他版本不支持。 启用DCGM-Exporter组件后,采集的GPU监控数据如需上报AOM服务,请在云原生监控插件中开启“上报至AOM服务”
作系统”。但随着进一步调研发现,应用部署在Kubernetes集群后,大部分用户节点的CPU利用率不足15%。在调研不同类型客户,排除一些闲置资源、套餐活动等干扰因素后,发现造成资源利用率低的主要因素可归纳为如下几点: 集群规划粒度过细,节点分布过散:集群规划粒度过细,节点分布在
产生结算费用。 前提条件 涉及账户在同一区域内。 已创建一个安装CCE容器存储(Everest)的集群,其中要求Everest版本≥1.1.11,集群版本≥1.15。若没有可用集群 ,请参照购买Standard/Turbo集群创建。 集群所在VPC下,已创建绑定弹性公网IP的EC
理这些问题往往耗费运维人员大量精力。为了提升运维效率,CCE引入了单Pod级别的资源诊断能力,帮助运维团队更高效地定位和解决问题。 该诊断工具通过综合使用Kubernetes原生API、Kubernetes事件、日志以及监控指标,对问题进行全面的分析和判定,并提供具体的修复建议。