检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
判断方法 若CCE集群中安装了NGINX Ingress控制器插件,且版本号在3.0.7以下,则受该漏洞影响,否则不受影响。判断方法如下: 使用kubectl查找与cceaddon-nginx-ingress相关的Pod: kubectl get po -A | grep cceaddon-nginx-ingress
本地临时卷:本地临时存储卷将节点的本地数据盘通过LVM组成存储池(VolumeGroup),然后划分LV作为EmptyDir的存储介质给容器挂载使用,相比原生EmptyDir默认的存储介质类型性能更好。 约束与限制 本地临时卷仅在集群版本 >= v1.21.2-r0 时支持,且需要everest插件版本>=1
kube-scheduler调度器在分配Pod时不会考虑应用的实际负载,如果应用负载不均匀可能导致某些节点的负载较高,而其他节点的负载较低。 Volcano调度器支持使用负载感知调度功能,感知集群内节点CPU、Memory的负载情况,将Pod优先调度到负载较低的节点,实现节点负载均衡,避免出现因单个节点负载
安排到节点上。 NoExecute:如果 Pod 已在节点上运行,则会将该 Pod 从节点中逐出;如果尚未在节点上运行,则不会将其安排到节点上。 使用 kubectl taint node nodename 命令可以给节点增加污点,如下所示。 $ kubectl get node NAME
大数据业务。 功能介绍 功能 描述 参考文档 动态资源超卖 根据在线作业和离线作业类型,通过Volcano调度将集群中申请而未使用的资源(即申请量与使用量的差值)利用起来,实现资源超卖和混合部署,提升集群资源利用率。 动态资源超卖 CPU Burst弹性限流 提供一种可以短暂突破CPU
描述 supportUpgradePageV4 Boolean 集群升级Console界面是否支持V4版本,该字段一般由CCE Console使用。 表7 UpgradeInfoStatus 参数 参数类型 描述 phase String 升级任务状态. 说明: Init:初始化 Running:运行中
ingressClassName指定其类别,即存在输出。 确认该Ingress被Nginx Ingress Controller纳管。如果使用ELB类型的Ingress则无此问题。 1.19集群可由通过managedFields机制确认。 kubectl get ingress <ingress-name>
器。 端口配置: 对外协议:TCP。 服务端口:本例中设置为8080,ELB将会使用该端口创建监听器,提供外部流量访问入口。 容器端口:容器中应用启动监听的端口,nginx镜像请设置为80。如需使用其他应用,该容器端口需和应用对外提供的监听端口一致。 图3 创建服务 单击右下角“创建工作负载”。
节点池扩容时,将根据节点池的节点模板信息计算资源,而ECS侧变更规格导致节点的规格与节点池设定的规格不一致,导致当前集群的CPU和内存使用量计算存在偏差,使扩容时节点池的资源总数可以部分超出CPU/内存的扩容上限。 节点池缩容时,如果缩容已变更规格的节点,将导致实际缩容的CP
io/elb.id 无 无 允许 CCE Standard/CCE Turbo 当配置了自动创建的方式对接负载均衡,此值由系统自动维护;当使用对接已有的ELB实例场景,此值支持指定已有的ELB实例ID 配置建议: 自动创建ELB实例场景无需配置 负载均衡器IP 路由对接的负载均衡器实例EIP地址
io/elb.id 无 无 允许 CCE Standard/CCE Turbo 当配置了自动创建的方式对接负载均衡,此值由系统自动维护;当使用对接已有的ELB实例场景,此值支持指定已有的ELB实例ID 配置建议: 自动创建ELB实例场景无需配置 负载均衡器IP 服务对接的负载均衡器实例EIP地址
为IPv6双栈网卡的Pod配置共享带宽 使用场景 默认情况下具有IPv6双栈网卡的Pod只具备IPv6私网访问能力,如果需要访问公网,则需要为该IPv6双栈网卡的Pod配置共享带宽。 约束限制 仅支持CCE Turbo集群,且需要满足以下条件: 集群已开启IPv6双栈。 集群版本为v1
弹性到CCI的业务量不同时,插件的资源占用也不相同。业务申请的POD、Secret、Congfigmap、PV、PVC会占用虚机资源。建议用户评估自己的业务使用量,按以下规格申请对应的虚机大小:1000pod+1000CM(300KB)推荐2U4G规格节点,2000pod+2000CM推荐4U8G
弹性到CCI的业务量不同时,插件的资源占用也不相同。业务申请的POD、Secret、Congfigmap、PV、PVC会占用虚机资源。建议用户评估自己的业务使用量,按以下规格申请对应的虚机大小:1000pod+1000CM(300KB)推荐2U4G规格节点,2000pod+2000CM推荐4U8G
GPU插件关键参数检查异常处理 检查项内容 检查CCE GPU插件中部分配置是否被侵入式修改,被侵入式修改的插件可能导致升级失败。 解决方案 使用kubectl连接集群。 执行以下命令获取插件实例详情。 kubectl get ds nvidia-driver-installer -nkube-system
相关最佳实践 创建集群实践 CCE集群选型建议 集群网络地址段规划实践 集群网络模型选择及各模型区别 通过CCE搭建IPv4/IPv6双栈集群 使用共享VPC创建CCE Turbo集群 集群日常管理实践 预防集群过载的配置建议 CCE集群高可用推荐配置 通过kubectl对接多个集群 集群视角的成本可视化最佳实践
面,从而更好地满足业务需求。 场景分类 相关最佳实践 创建节点相关实践 制作CCE节点自定义镜像 创建节点时执行安装前/后脚本 创建节点时使用OBS桶实现自定义脚本注入 选择合适的节点数据盘大小 节点日常管理实践 存储扩容 通过Core Dump文件定位容器问题 容器与节点时区同步
kubelet的eviction机制 如果节点处于资源压力,那么kubelet就会执行驱逐策略。驱逐会考虑Pod的优先级,资源使用和资源申请。当优先级相同时,资源使用/资源申请最大的Pod会被首先驱逐。 kube-controller-manager的驱逐机制是粗粒度的,即驱逐一个节点
11及以上时,插件提供number_of_reserved_disks参数,该参数可以设置节点上预留的挂盘数,预留出部分盘位供用户自定义挂载云硬盘使用。注意,修改该参数将对集群中所有节点生效。 设置number_of_reserved_disks参数后,节点剩余可挂载的云硬盘数量计算如下:
应用和数据可在云上云下无缝迁移,满足复杂业务系统对弹性伸缩、灵活性、安全性与合规性的不同要求,并可统一运维多个云端资源,从而实现资源的灵活使用以及业务容灾等目的。 优势 云上容灾 通过云容器引擎,可以将业务系统同时部署在多个云的容器服务上,统一流量分发,单云故障后能够自动将业务流