检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
<none> <none> 查看这个Pod的事件信息,可以发现调度失败,没有一个可用的节点,其中两个节点是因为没有足够的CPU,一个是因为创建的云硬盘不是节点所在的可用区,Pod无法使用该云硬盘。 # kubectl describe pod nginx-3
手动创建的grafana的服务(service)和路由(ingress)无法直接绑定至新的grafana插件,需要手动修改服务的选择器的配置,请及时修改对应的选择器。 方案一:如果当前插件能够升级至3.9.0及以上的版本,请前往“插件中心”页面,单击云原生监控插件的“升级”按钮
s提供对外访问的地址及端口号。 步骤二:获取认证方式 如果您用于接受数据的目的端为第三方厂商提供的Prometheus,您可以前往对应厂商的控制台中查看用于授权访问的Token或账号密码。 如果您用于接受数据的目的端为自建的Prometheus,则获取Token的方式如下: 若您
在“容器配置>基本信息”中设置xGPU配额: 显存:显存值单位为MiB,需为正整数,且为128的倍数。若配置的显存超过单张GPU卡的显存,将会出现无法调度状况。 算力:算力值单位为%,需为5的倍数,且最大不超过100。 当显存设置为单张GPU卡的容量上限或算力设置为100%时,将会使用整张GPU卡。 使用GP
在替换节点池、节点滚动升级等场景中,需要使用新节点池替换旧节点池。在这些场景下,为做到业务不感知,可以在业务触发变更时,将业务的Pod软亲和调度到新的节点池上。这种软亲和调度会尽量将新创建的Pod或者重调度的Pod调度到新的节点池,如果新节点池资源不足,或者新节点池无法调度,也要能将Pod调度到旧节点池上。节点池替
客户端连接空闲超时时间,在超过keepalive_timeout时长一直没有请求, 负载均衡会暂时中断当前连接,直到下一次请求时重新建立新的连接。 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: kubernetes.io/elb.keepalive_timeout
Ingress配置重定向规则 为Nginx Ingress配置URL重写规则 为Nginx Ingress配置HTTPS协议的后端服务 为Nginx Ingress配置GRPC协议的后端服务 为Nginx Ingress配置一致性哈希负载均衡 为Nginx Ingress配置应用流量镜像 为Nginx
云容器引擎CCE支持多种类型的集群创建,包括CCE Turbo集群与CCE Standard集群,以满足您各种业务需求。CCE集群相关介绍请前往CCE产品介绍。CCE服务为不同的集群类型,提供统一的数据采集方案与一致云原生观测体验。 数据采集 指标采集:CCE提供基于Prometheus的云原生监控
支持集群cpu管理策略 支持集群下的节点跨子网(容器隧道网络) v1.13.7-r0 主要特性: Kubernetes同步社区1.13.7版本 支持网络平面(NetworkAttachmentDefinition) 参考链接 社区v1.11与v1.13版本之间的CHANGELOG v1.12到v1
高频常见问题 集群管理 CCE集群创建失败的原因与解决方法? 集群的管理规模和控制节点的数量有关系吗? 当集群状态为“不可用”时,如何排查解决? 节点及节点池 集群可用但节点状态为“不可用”如何解决? 如何收集CCE集群中节点的日志? thinpool磁盘空间耗尽导致容器或节点异常时,如何解决?
会自动与实例运行的节点所在可用区保持一致。例如实例运行的节点可用区为可用区1,则该云硬盘的可用区也为可用区1。 当集群中卸载kube-prometheus-stack插件时,prometheus实例绑定的存储卷不会被一起删除,保留了已有的监控数据。当再次安装插件时,集群的节点可能
支持集群cpu管理策略 支持集群下的节点跨子网(容器隧道网络) v1.13.7-r0 主要特性: Kubernetes同步社区1.13.7版本 支持网络平面(NetworkAttachmentDefinition) 参考链接 社区v1.11与v1.13版本之间的CHANGELOG v1.12到v1
orter暴露的指标,通过Prometheus RemoteWrite的方式,将数据写入至AOM实例。 监控中心将基于AOM实例中存储的指标,提供多维度数据洞察、仪表盘的功能。 云原生监控插件也提供了基于RemoteWrite对接三方云原生监控平台的能力,将集群内的监控指标通过Bearer
ice的自定义指标采集策略,详情请参见管理监控采集任务。 关于ServiceMonitor的创建方式请参见配置Service Monitor监控自定义指标。 PodMonitor:定义针对Pod的自定义指标采集策略,详情请参见管理监控采集任务。 关于PodMonitor的创建方式请参见配置Pod
容器的资源申请值,而限制值则根据容器初始创建时申请值与限制值的比例进行计算。 例如,某个容器原来配置了CPU资源申请值为100m与限制值为200m,申请值与限制值的比例为1:2。如果VPA计算后的资源申请值建议为80m,则该容器最终的CPU资源申请值为80m,限制值为160m。
概述 Kubernetes是一个开源的容器编排部署管理平台,用于管理云平台中多个主机上的容器化应用。Kubernetes的目标是让部署容器化的应用简单并且高效,Kubernetes提供了应用部署、规划、更新、维护的一种机制。 对应用开发者而言,可以把Kubernetes看成一个集
子路径 请输入存储卷的子路径,将存储卷中的某个路径挂载至容器,可以实现在单一Pod中使用同一个存储卷的不同文件夹。如:tmp,表示容器中挂载路径下的数据会存储在存储卷的tmp文件夹中。不填写时默认为根路径。 权限 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁
com/fuxiefs。 storage 存储容量,单位Gi,必须和已有pv的storage大小保持一致。 volumeName PV的名称。 极速文件存储所在VPC,子网必须与工作负载规划部署的ECS虚拟机的VPC保持一致,安全组开放入方向端口(111、445、2049、2051、20048)。
原生Kubernetes调度器只能基于资源的申请值进行调度,然而Pod的真实资源使用率,往往与其所申请资源的Request/Limit差异很大,这直接导致了集群负载不均的问题: 集群中的部分节点,资源的真实使用率远低于资源申请值的分配率,却没有被调度更多的Pod,这造成了比较大的资源浪费。 集群中的另外一些节点
采集控制面组件日志 集群支持对用户开放集群控制节点的日志信息。在日志中心页面可以选择需要上报日志的控制面组件,支持kube-controller-manager、kube-apiserver、kube-scheduler三个组件。 约束与限制 如您需要查看集群控制面组件日志,集群必须为v1