检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
0.160 <none> <none> 驱逐该节点上的所有Pod。 kubectl drain 192.168.0.160 如果节点上存在绑定了本地存储的Pod或是一些守护进程集管理的Pod,将提示“error: unable to drain node "192
集群触发弹性缩容失败后,再次启动缩容评估的冷却时间:缩容失败后能再次启动缩容评估的时间间隔,默认3min。节点池中配置的弹性扩容冷却时间和此处配置的弹性缩容冷却时间之间的影响和关系请参见冷却时间说明。 配置修改完成后,单击“确认配置”。 冷却时间说明 节点池中配置的两个冷却时间之间的影响和关系如下: 弹性扩容中的冷却时间
od1的IP:Port,从而通过Service访问到实际的Pod。 除了记录Service对应的IP和端口,kube-proxy还会监控Service和Endpoint的变化,从而保证Pod重建后仍然能通过Service访问到Pod。 图3 Pod X访问Service的过程 Service的类型与使用场景
但在内核中没有释放cssid,导致内核认为的cgroup的数量实际数量不一致,残留的cgroup达到节点上限后,导致该节点无法继续新建Pod。 解决方法 该问题可以通过可以在内核层全局使用 “cgroup.memory=nokmem” 参数关闭kmem使用防止发生泄漏。 1.17集群版本已停止维护,修复该问题建议升级至1
第二位小数:预绑定高水位,弹性网卡预绑定的最高比例(最大预绑定弹性网卡数 = ⌊节点的总弹性网卡数 * 预绑定高水位⌋) BMS节点上绑定的弹性网卡数:Pod正在使用的弹性网卡数 + 最小预绑定弹性网卡数 < BMS节点上绑定的弹性网卡数 < Pod正在使用的弹性网卡数 + 最大预绑定弹性网卡数
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
出口网络带宽保障通过设置网络优先级实现,具有如下优点: 平衡在线业务与离线业务对出口网络带宽的使用,保证在线业务有足够的网络带宽,在线业务触发阈值时,压缩离线业务带宽使用。 在线业务所占用的网络资源较少时,离线业务可使用更多带宽;在线业务所占用的网络资源较多时,降低离线业务资源占用量,从而优先保障在线业务的网络带宽。
如何收集CCE集群中节点的日志? CCE节点日志文件如下表所示。 表1 节点日志列表 日志名称 路径 kubelet日志 v1.21及以上版本集群:/var/log/cce/kubernetes/kubelet.log v1.19及以下版本集群:/var/paas/sys/log/kubernetes/kubelet
限制单个容器的主目录大小(默认为10GB),但节点上的所有容器还是共用节点的thinpool磁盘空间,并不是完全隔离,当一些容器使用大量thinpool空间且总和达到节点thinpool空间上限时,也会影响其他容器正常运行。 另外,在容器的主目录中创删文件后,其占用的thinpo
操作。 不同集群的Service对接的是一个监听器,后端服务器组,使用的是先创建Service的配置,因此不同集群部署的监听器,后端服务器组配置跟随第一次创建ELB资源的Service,如健康检查等。 不同集群的Service对接一个监听器时,所有的Service都需要配置跨集群能力。
节点私网IP修改后,会导致节点不可用。这时您需要将节点的私网IP修改回原来使用的IP。 在CCE控制台,查看节点详情,找到该节点之前使用的IP和子网。 图1 节点私网IP地址和所在子网 登录ECS控制台,找到节点,先关机,然后进入节点详情页,在弹性网卡页签修改私网IP。注意此时要选择对应的子网。 图2 修改私有IP
od所在节点或同节点的其他容器中访问ELB的私网IP地址,会出现无法访问的问题。 1.15及以下老版本集群暂不支持该能力。 IPVS网络模式下,对接同一个ELB的Service需保持pass-through设置情况一致。 使用节点级别(Local)的服务亲和的场景下,会自动设置kubernetes
ServiceStage)的区别是什么? 对于使用者而言,云容器引擎关注的重点是Pod的部署,应用管理与运维平台关注的是服务的使用。 对于技术实现来看,应用管理与运维平台是对云容器引擎的再一次封装。 基础概念 云容器引擎(CCE) 云容器引擎(Cloud Container En
使用的文件系统的可用inodes数的百分比 imagefs.available,容器运行时存放镜像等资源的文件系统的可用容量的百分比 imagefs.inodesFree,容器运行时存放镜像等资源的文件系统的可用inodes数的百分比 pid.available,留给分配 Pod 使用的可用 PID 数的百分比
如何变更CCE集群中的节点规格? 约束与限制 节点池中的节点在ECS侧变更规格后,可能导致节点池弹性伸缩问题,详情请参见CCE节点池内的节点变更规格后会有哪些影响?。 CCE Turbo集群中的部分规格节点仅支持在CCE中创建,无法在ECS控制台变更规格,此种情况下调用ECS A
true参数,详情请参见在Pod中配置主机网络(hostNetwork)。配置完成后的Pod会占用宿主机的端口,Pod的IP就是宿主机的IP,不会占用容器网络的IP。使用时需要考虑是否与宿主机上的端口冲突,因此一般情况下除非某个特定应用必须使用宿主机上的特定端口,否则不建议使用主机网络。 父主题: 节点运维
延迟,因为这两种类型的Pod可以共享相同的物理资源。 某类应用部署到某些特定的节点,确保关键应用总是运行在最优的硬件或配置上。 不同应用部署到不同的节点,有助于隔离应用,防止一个应用的问题影响到其他应用。 您可以使用以下方式来选择Kubernetes对Pod的调度策略: 表1 工作负载调度策略
可优化的节点系统参数列表 CCE提供默认的节点系统参数在某些用户场景下可能出现性能瓶颈,因此用户可对部分节点系统参数进行自定义优化,节点系统参数如可优化的节点系统参数列表所示。 修改节点系统参数具有一定的风险,需要您对Linux命令和Linux系统知识具有较高程度的了解,避免误操作引起节点故障。
通过节点池升级节点的GPU驱动版本 如果您使用的CUDA库无法与当前的NVIDIA驱动版本匹配,您需要升级节点的驱动版本才可以正常使用GPU节点。建议您以节点池为粒度进行节点NVIDIA驱动版本的管理,创建应用时可调度到指定驱动版本的节点池,在升级驱动时,也可以根据节点池分批次控制升级。
为负载均衡类型的Service配置TLS TLS协议适用于需要超高性能和大规模TLS卸载的场景。您可以为Service配置TLS协议,转发来自客户端加密的TCP协议请求。 Service配置TLS协议依赖ELB能力,使用该功能前请确认当前区域是否支持使用TLS协议,详情请参见添加TLS监听器(独享型)。