检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
若Node节点升级失败且无法修复,请尽快驱逐此节点上的应用,请联系技术支持人员,跳过此节点升级,在整体升级完毕后,重置该节点。 CCE的v1.15版本集群及v1.19版本集群将docker的存储驱动文件系统由 xfs切换成ext4,可能会导致升级后的java应用Pod内的import包顺序异常,继而导致Pod异常。
授权。所授予的权限类型请参考资源权限。 约束与限制 集群版本仅支持v1.17及以上。 使用监控中心前,用户需要使用具有admin用户组的账户完成对CCE及其依赖服务的委托授权。授权完成后,拥有CCE Administrator角色或CCE FullAccess权限的用户可进行监控中心所有操作;拥有CCE
r镜像,是否有相应指导? CCE为您提供了强大的入门指导,请参考帮助文档中的企业应用容器化改造。 我不会制作镜像,是否可以使用CCE? CCE除了提供“我的镜像”功能用于存储您自行创建的镜像外,您还可以基于开源镜像创建容器应用。详情请参考CCE快速入门在CCE集群中部署NGINX无状态工作负载。
定时任务是按照指定时间周期运行的短任务。使用场景为在某个固定时间点,为所有运行中的节点做时间同步。 定时任务是基于时间的Job,就类似于Linux系统的crontab,在指定的时间周期运行指定的Job,即: 在给定时间点只运行一次。 在给定时间点周期性地运行。 CronJob的典型用法如下所示:
该配置在3.9.0以下版本的插件中支持。对于3.9.0及以上版本的插件,如果存在使用Grafana的需求,请单独安装Grafana。 在“插件中心”页面右侧找到CCE容器网络扩展指标插件,单击“安装”。 当前该插件无可配置参数。 (可选)对于3.9.0及以上版本的云原生监控插件,不再默
通过ELB健康检查设置Pod就绪状态 Pod的就绪状态可与挂载到ELB后端的健康检查联动,在健康检查成功后,将Pod置为就绪。与Pod的strategy.rollingUpdate.maxSurge和strategy.rollingUpdate.maxUnavailable参数配合,可实现负载的优雅滚动升级。
内存的申请值增加1000Mi;CPU的限制值建议比申请值多1500m,内存的限制值建议比申请值多1000Mi。 申请值推荐计算公式: CPU申请值:计算“目标节点数 * 目标Pod规模”的值,并在表4中根据“集群节点数 * Pod规模”的计算值进行插值查找,向上取最接近规格的申请值及限制值。
您可按需选择每一个系统预置采集任务的指标采集行为进行管理: 若您选择采集全量指标,则会采集该采集任务的所有指标。 若您选择指标采集白名单,则可以按需编辑白名单(基础免费指标无需添加),更加精确的控制自定义采集内容,降低您集群的资源消耗及指标上报成本。 采集任务周期管理 您可以按需对特定的系统采集任务的采集周期进行个性化配置。
其他节点上的Pod时,通常情况下,Pod的响应数据包会被自动执行SNAT,此时源地址会从Pod的IP地址变更为节点的IP地址。这种自动的IP地址转换可能会导致通信异常,从而使得跨节点的访问变得不可行。 为了确保节点能够正常访问位于其他节点上的Pod,需要将节点所在子网的网段添加到
CCE容器运行时的安全配置建议 容器技术通过利用Linux的Namespace和Cgroup技术,实现了容器与宿主机之间的资源隔离与限制。Namespace提供了一种内核级别的环境隔离功能,它能够限制进程的视图,使其只能访问特定的资源集合,如文件系统、网络、进程和用户等。而Cgr
Nginx Ingress使用建议 Nginx型的Ingress在集群中部署NGINX Ingress控制器来对流量进行负载均衡及访问控制。由于NGINX Ingress控制器插件使用开源社区的模板与镜像,且部署在集群内部,因此它的稳定性与使用时的配置、当前集群状态密切相关。本文介绍Nginx
有一种常用的方法为最大最小化公平分配算法(max-min fairness share),尽量满足用户中的最小的需求,然后将剩余的资源公平分配给剩下的用户。形式化定义如下: 资源分配以需求递增的方式进行分配 每个用户获得的资源不超过其需求 未得到满足的用户等价平分剩下的资源 组调度(Gang)
不建议修改,请自行恢复。 通过ELB的控制台解绑ELB的IPv4公网IP 解绑公网IP后,该弹性负载均衡器变更为私网类型,无法进行公网流量转发。 请自行恢复。 通过ELB的控制台在CCE管理的ELB创建自定义的监听器 若ELB是创建Service/Ingress时自动创建的,在Service/I
vice访问到实际的Pod。 除了记录Service对应的IP和端口,kube-proxy还会监控Service和Endpoint的变化,从而保证Pod重建后仍然能通过Service访问到Pod。 图3 Pod X访问Service的过程 Service的类型与使用场景 Serv
您可以将鼠标悬停在图表上,以便查看每分钟的监控数据。 CPU:单位时间内集群CPU使用情况的统计。 内存:单位时间内集群内存使用情况的统计。 PVC存储状态:PVC和PV的绑定情况。 Pod数量状态趋势:实时监控集群Pod的状态。 Pod总重启次数趋势:近5分钟的集群的Pod重启次数总和。 节点状态趋势:实时监控集群节点的状态。
名为nginx的Pod。 Namespace的隔离说明 Namespace只能做到组织上划分,对运行的对象来说,它不能做到真正的隔离。举例来说,如果两个Namespace下的Pod知道对方的IP,而Kubernetes依赖的底层网络没有提供Namespace之间的网络隔离的话,那这两个Pod就可以互相访问。
ReplicaSet 会消耗 etcd 中的资源,并占用 kubectl get rs 的输出。 每个 Deployment 修订版本的配置都存储在其 ReplicaSets 中;因此,一旦删除了旧的 ReplicaSet, 将失去回滚到 Deployment 的对应修订版本的能力。 默认情况下,系统保留
Release转换成Helm v3 Release 背景介绍 当前CCE已全面支持Helm v3版本,用户可通过本指南将已创建的v2 release转换成v3 release,从而更好地使用v3的特性。因Helm v3底层相对于Helm v2来说,一些功能已被弃用或重构,因此转换会有一定风险,需转换前进行模拟转换。
用于配置集群访问的文件称为kubeconfig配置文件,并不意味着文件名称为kubeconfig。 解决方案 在K8s集群的运维中,多集群之间的切换是无法避免的问题,常见的集群切换方案如下: 方案一:您可以通过指定kubectl的“--kubeconfig”参数来选择每个集群所使用的kub
因控制台“模板管理”功能所依赖的开源软件Helm已从 V2 演进至 V3 版本,即日起平台会自动将集群中 Helm V2 格式实例转换为 Helm V3 格式。部分 Helm V2 功能在 Helm V3 上有了更好的解决方案,但可能存在与原有方式不兼容的情况,需要您根据Helm V3 与 Helm