检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
修改节点内核参数 由于默认的Linux内核参数不一定符合所有用户场景,用户可通过修改节点上的/etc/sysctl.conf配置文件来更改内核参数。 修改节点系统参数的命令仅在使用公共镜像时有效,使用私有镜像时本文中提供的命令仅供参考。 节点重启后需执行sysctl -p用于刷新参数值。
be-controller-manager和cloud-controller-manager这两个组件之间共享的资源锁,安全地迁移“特定于云平台”的控制器。特性自v1.24正式发布,被无条件启用, 在v1.27版本中此特性门禁选项将被移除。 在Kubernetes 1.27版本,
be-controller-manager和cloud-controller-manager这两个组件之间共享的资源锁,安全地迁移“特定于云平台”的控制器。特性自v1.24正式发布,被无条件启用, 在v1.27版本中此特性门禁选项将被移除。 在Kubernetes 1.27版本,
使用云原生监控插件监控自定义指标 CCE提供了云原生监控插件,支持使用Prometheus监控自定义指标。 本文将通过一个Nginx应用的示例演示如何使用Prometheus监控自定义指标,步骤如下: 安装并访问云原生监控插件 CCE提供了集成Prometheus功能的插件,支持一键安装。
IT等常用的版本控制工具无缝集成,也支持直接对接GitHub等源代码托管网站。 约束与限制 该实践方案仅支持在CCE集群下部署,不适用专属云场景。 Jenkins系统的维护由开发者自行负责,使用过程中CCE服务不对Jenkins系统提供额外维护与支持。 方案架构 Jenkins部署分为以下两种模式:
高负载场景下NGINX Ingress控制器的性能调优 Ingress对象为集群提供HTTP/HTTPS等七层协议的负载均衡访问方式,NGINX Ingress是社区常见的一种实现,目前CCE服务提供了一款基于社区的NGINX Ingress Controller优化的精选开源插
节点伸缩原理 HPA是针对Pod级别的,可以根据负载指标动态调整副本数量,但是如果集群的资源不足,新的副本无法运行的情况下,就只能对集群进行扩容。 CCE集群弹性引擎是Kubernetes提供的集群节点弹性伸缩组件,根据Pod调度状态及资源使用情况对集群的节点进行自动扩容缩容,同
待纳管节点必须状态为“运行中”,未被其他集群所使用,且不携带 CCE 专属节点标签CCE-Dynamic-Provisioning-Node。 待纳管节点需与集群在同一虚拟私有云内(若集群版本低于1.13.10,纳管节点还需要与CCE集群在同一子网内)。 待纳管节点需挂载数据盘,可使用本地盘(磁盘增强型实例)或至少挂
s2:三控制节点的集群,即高可用集群,控制节点数为3。当某个控制节点故障时,集群仍然可用。 dec:表示专属云的CCE集群规格。例如cce.dec.s1.small表示小规模单控制节点的专属云CCE集群(最大50节点)。 small:表示集群支持管理的最大节点规模为50节点。 medium
cluster_id 是 String 集群ID cluster_name 是 String 集群的名称 vpc_id 是 String 虚拟私有云ID network_id 是 String 子网ID security_group_id 是 String 安全组ID project_id
单击左上角的,在展开的列表中单击“网络 > NAT网关”。 在NAT网关页面,单击右上角的“购买公网NAT网关”。 根据界面提示配置参数,其中“虚拟私有云”选择集群使用的VPC,并且“子网”选择容器子网,具体请参见图4。使用CCE Turbo集群时,“子网”需要选择容器所在子网。使用CCE S
性和安全性。 表1 IAM授权与RBAC授权 授权 说明 IAM授权 对用户组进行IAM授权侧重于对云平台资源的访问管理,通过策略控制每个用户组对具体资源的权限。 IAM更关注云资源的细粒度控制。 RBAC授权 对用户组进行RBAC授权是基于角色的,将权限与角色关联,再将角色分配给用户组,通常用于应用内部的访问控制。
集群外部访问Ingress异常 Ingress基于七层的HTTP和HTTPS协议进行转发,是集群流量的入口,可以通过域名和路径对访问做到更细粒度的划分。集群在添加Ingress后,可能会出现无法正常访问的情况,本文提供添加Ingress失败或无法正常访问的通用排查思路,帮助您找到
2和步骤3创建的pv和pvc的yaml名字为准。 进入应用更新升级界面:更新升级 - 高级设置 - 数据存储 - 云存储。 卸载老存储,同时添加CSI格式的PVC的云存储,容器内挂载路径和以前保持一致,实现存储迁移。 单击提交,确认后升级生效。 等待pod running。 升级使用已有存储的有状态应用
从Pod访问同一VPC网络的云服务 集群的容器网络模型不同,集群内的从Pod访问同一VPC网络的云服务的方式也不同,请参见表1 从Pod访问云服务的方式(同一VPC)。 表1 从Pod访问云服务的方式(同一VPC) 容器网络模型 方式 容器隧道网络 容器隧道网络在节点网络基础上通
2和步骤3创建的pv和pvc的yaml名字为准。 进入应用更新升级界面:更新升级 - 高级设置 - 数据存储 - 云存储。 卸载老存储,同时添加CSI格式的PVC的云存储,容器内挂载路径和以前保持一致,实现存储迁移。 单击提交,确认后升级生效。 等待pod running。 升级使用已有存储的有状态应用
node.cloudprovider.kubernetes.io/uninitialized:如果 kubelet 启动时指定了一个“外部”云平台驱动, 它将给当前节点添加一个污点将其标志为不可用。在 cloud-controller-manager 的一个控制器初始化这个节点后,kubelet
ernetes进行通讯,出现上述错误信息说明kubectl配置有误,请重新对接kubectl,具体请参见使用kubectl连接集群。 对接云存储后,存储未创建成功。 出现上述问题可能是创建的PVC中annotation字段导致的,请修改模板名称后再次进行安装。 如果kubectl没有配置好,helm
ernetes进行通讯,出现上述错误信息说明kubectl配置有误,请重新对接kubectl,具体请参见使用kubectl连接集群。 对接云存储后,存储未创建成功。 出现上述问题可能是创建的pvc中annotation字段导致的,请修改模板名称后再次进行安装。 如果kubectl没有配置好,helm
配置节点故障检测策略 节点故障检查功能依赖node-problem-detector(简称:npd),npd是一款集群节点监控插件,插件实例会运行在每个节点上。本文介绍如何开启节点故障检测能力。 前提条件 集群中已安装CCE节点故障检测插件。 开启节点故障检测 登录CCE控制台,单击集群名称进入集群。