检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过特权容器功能优化内核参数 使用Init容器初始化应用 容器与节点时区同步 容器网络带宽限制的配置建议 使用hostAliases参数配置Pod的/etc/hosts文件 CCE容器中域名解析的最佳实践 CCE中使用x86和ARM双架构镜像 通过Core Dump文件定位容器问题 在CCE Turbo集群中配置Pod延时启动参数
CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理与容器化有关的抽象,并提供API以管理容器的生命周期。在特定的条件下,可以通过访问containerd-shim
GPU虚拟化节点弹性伸缩配置 当集群中GPU虚拟化资源不足时,支持自动进行GPU节点的弹性伸缩。本文将指导您如何创建GPU虚拟化节点的弹性伸缩策略。 前提条件 已创建一个v1.28或v1.29版本的集群。 在集群中安装CCE AI套件(NVIDIA GPU)(2.7.5及以上版本)
创建VPC和子网 背景信息 在创建集群之前,您需要创建虚拟私有云(VPC),为CCE服务提供一个安全、隔离的网络环境。 如果用户已有VPC,可重复使用,不需多次创建。 创建VPC 登录管理控制台,选择“网络 > 虚拟私有云 VPC”。 在虚拟私有云控制台,单击右上角的“创建虚拟私有云”,按照提示完成创建。
检查节点上是否存在不可访问的挂载点。 解决方案 问题场景:节点上存在不可访问的挂载点 节点存在不可访问的挂载点,通常是由于该节点或节点上的Pod使用了网络存储nfs(常见的nfs类型有obsfs、sfs等),且节点与远端nfs服务器断连,导致挂载点失效,所有访问该挂载点的进程均会出现D状态卡死。
允许调度器将Pod调度至带有对应污点的节点上。 容忍度需要和节点污点相互配合,每个节点上都可以拥有一个或多个污点,对于未设置容忍度的Pod,调度器会根据节点上的污点效果进行选择性调度,可以用来避免Pod被分配到不合适的节点上。更多关于容忍度的使用示例请参见污点和容忍度。 污点可以指定多种效果,对应的容忍策略对Pod运行影响如下:
约5%-15%)。所以容器隧道网络适用于对性能要求不是特别高的业务场景,比如:Web应用、访问量不大的数据中台、后台服务等。 大规模组网:相比VPC路由网络受限于VPC路由条目配额的限制,容器隧道网络没有网络基础设施的任何限制;同时容器隧道网络把广播域控制到了节点级别,容器隧道网络最大可支持2000节点规模。
VPC网段:集群所在的VPC网段,该网段的大小影响集群中可创建的节点数量上限。 子网网段:每个集群中的子网网段不能和容器网段重叠。 容器网段:所有集群的容器网段可以重叠。在此情况下不同集群的Pod不能通过容器IP直接访问,跨集群容器之间的访问需要通过Service,建议使用负载均衡类型的Service。
节点镜像推荐优先使用CCE服务维护的默认节点镜像。相关镜像经过严格的测试,且能获得最新的更新推送,具有更好的兼容性、稳定性和安全性。 如果您有特殊场景需要使用自定义镜像功能,请使用CCE提供的基础镜像来制作自定义镜像。 基础镜像中预置了节点运行依赖的组件包,该包的版本会跟着集群版本变更。对
如何使节点CPU、内存的真实负载趋于均衡 工作负载运行过程中,真实消耗的CPU和内存存在大的波动,通过工作负载request资源无法准确评估的场景中,希望调度器可以结合集群内节点CPU、内存的负载情况,将Pod优先调度到负载较低的节点,实现节点负载均衡,避免出现因单个节点负载过高而导致的应用程序或节点故障。
基于Pod实例画像的资源超卖 Volcano新增基于Pod实例画像的超卖量算法。该算法持续采集并累积节点上Pod的CPU和内存利用率,统计Pod资源用量的概率分布特征,进而计算出节点资源用量的概率分布特征,从而在一定的置信度下给出节点资源用量的评估值。基于Pod实例画像的超卖量算法会同
3-r0及之后版本的集群中,CCE使用的数据盘支持采用容器引擎和Kubelet共享磁盘空间的方式,即不再划分容器引擎 (Docker/Containerd) 和Kubelet组件的空间。 Pod容器空间分配:即容器的basesize设置,每个工作负载下的容器组 Pod 占用的磁盘空间设置
指定节点池调度:指定工作负载Pod部署的节点池。若不指定,将根据集群默认调度策略随机调度。 自定义亲和策略:根据节点标签实现灵活的调度策略,支持的亲和性规则请参见表2。选择合适的策略类型后可以添加对应的调度策略,参数详情请参见表3。 自定义亲和策略 选择合适的节点亲和性规则,并单击,添加相应的调度策略。本
32) NVIDIA Container Toolkit 是一个由 NVIDIA 提供的开源工具包,它允许您在容器化环境中利用 NVIDIA GPU 进行加速计算。工具包包括一个容器运行时库和实用程序,用于自动配置容器以利用NVIDIA GPU。 漏洞详情 表1 漏洞信息 漏洞类型
弹性云服务器-物理机 基于擎天架构,使用裸金属虚拟化技术的弹性云服务器类型,该类型的物理机资源和虚拟机资源处于同一个资源池,可实现动态混合调度。 通用计算增强型 裸金属服务器 基于裸金属服务器部署容器服务,提供高性能和低延迟的计算能力。 裸金属服务器的规格信息请参见裸金属服务器实例家族。 通用计算增强型
CCE集群中工作负载镜像的拉取策略有哪些? 容器在启动运行前,需要镜像。镜像的存储位置可能会在本地,也可能会在远程镜像仓库中。 Kubernetes配置文件中的imagePullPolicy属性是用于描述镜像的拉取策略的,如下: Always:总是拉取镜像。 imagePullPolicy:
d设置的拓扑策略预测匹配的节点列表。Pod的拓扑策略配置请参考NUMA亲和性调度使用示例。调度过程如下: 根据Pod设置的Volcano拓扑策略,筛选具有相同策略的节点。Volcano提供的拓扑策略与拓扑管理器相同。 在设置了相同策略的节点中,筛选CPU拓扑满足该策略要求的节点进行调度。
高频常见问题 集群管理 CCE集群创建失败的原因与解决方法? 集群的管理规模和控制节点的数量有关系吗? 当集群状态为“不可用”时,如何排查解决? 节点及节点池 集群可用但节点状态为“不可用”如何解决? 如何收集CCE集群中节点的日志? thinpool磁盘空间耗尽导致容器或节点异常时,如何解决?
EulerOS和CentOS类型的节点存在由NTP引起的已知问题,其他类型的节点不涉及该问题。 上述问题在v1.19.16-r7、v1.21.9-r10、v1.23.7-r10版本的集群中被修复。 解决方法 若您的集群版本为v1.19.16-r7、v1.21.9-r10、v1.23.7-r10及以上,该版本
问题原因 该告警事件说明节点上绑定的云硬盘已达上限,挂载云硬盘的工作负载实例调度到该节点后,无法继续挂载云硬盘,导致工作负载无法正常运行。 例如,假设节点可挂载的云硬盘上限为20,除去节点上已挂载的1块系统盘和1块数据盘后,节点剩余可挂载的云硬盘数量为18块。若该节点通过ECS