检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
存储Flexvolume概述 容器存储是为容器工作负载提供存储的组件,支持多种类型的存储,同一个工作负载(pod)可以使用任意数量的存储。 云容器引擎CCE的容器存储功能基于Kubernetes存储系统,并深度融合云存储服务,完全兼容Kubernetes原生的存储服务,例如EmptyDir、HostP
NVIDIA公布了关于NVIDIA GPU驱动的一个漏洞CVE-2021-1056,该漏洞是存在于NVIDIA GPU驱动程序中与设备隔离相关的安全漏洞。当容器以非特权模式启动,攻击者利用这个漏洞,通过在容器中创建特殊的字符设备文件后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。
重调度(Descheduler) 集群中的调度是将pending状态的Pod分配到节点运行的过程,在CCE集群之中,Pod的调度依赖于集群中的调度器(kube-scheduler或者Volcano调度器)。调度器是通过一系列算法计算出Pod运行的最佳节点,但是Kubernetes集群环境是存在动态变化的,例如某
储在宿主机上的目录,比如一个NFS的挂载目录。 PVC:PVC描述的是Pod所希望使用的持久化存储的属性,比如,Volume存储的大小、可读写权限等等。 Kubernetes管理员设置好网络存储的类型,提供对应的PV描述符配置到Kubernetes,使用者需要存储的时候只需要创建
载情况,如果业务容器的数据目录是通过数据卷(Volume)挂载的,插件不支持采集它的父目录,需设置采集目录为完整的数据目录。例如/var/log/service目录是数据卷挂载的路径,则设置采集目录为/var/log或/var/log/*将采集不到该目录下的日志,需设置采集目录为/var/log/service。
在替换节点池、节点滚动升级等场景中,需要使用新节点池替换旧节点池。在这些场景下,为做到业务不感知,可以在业务触发变更时,将业务的Pod软亲和调度到新的节点池上。这种软亲和调度会尽量将新创建的Pod或者重调度的Pod调度到新的节点池,如果新节点池资源不足,或者新节点池无法调度,也要能将Pod调度到旧节点池上。节点池替
在集群信息页面,单击集群名称后的。 图1 修改集群名称 输入新的集群名称后,单击“保存”。 集群名称不能与其他集群的名称或原名相同。 集群名称修改后,如果集群相关的周边服务已使用集群名称命名实例或者将集群名称作为某个配置项,则不会同步修改。例如集群日志采集时仍会使用集群修改前的名称。 父主题:
请确保您自建的Prometheus满足以下条件,否则无法正常共存运行: 若您的Prometheus不是基于Operator社区的KubePrometheus构建的,则满足兼容性要求。 若您的Prometheus是基于Operator社区的KubePrometheus构建的,则CRD
Release转换成Helm v3 Release 背景介绍 当前CCE已全面支持Helm v3版本,用户可通过本指南将已创建的v2 release转换成v3 release,从而更好地使用v3的特性。因Helm v3底层相对于Helm v2来说,一些功能已被弃用或重构,因此转换会有一定风险,需转换前进行模拟转换。
动与实例运行的节点所在可用区保持一致。例如实例运行的节点可用区为可用区1,则该云硬盘的可用区也为可用区1。 当集群中卸载kube-prometheus-stack插件时,prometheus实例绑定的存储卷不会被一起删除,保留了已有的监控数据。当再次安装插件时,集群的节点可能已经
在实际业务中,经常会遇到将集群稀缺资源分配给多个用户的情况,每个用户获得资源的权利都相同,但是需求数却可能不同,如何公平的将资源分配给每个用户是一项非常有意义的事情。调度层面有一种常用的方法为最大最小化公平分配算法(max-min fairness share),尽量满足用户中的最小的需求,然后将剩余的资源公平分配给剩下的用户。形式化定义如下:
U/NPU节点的CPU、内存资源被普通工作负载占用的情况,导致GPU/NPU资源闲置。 解决方案 在使用GPU/NPU节点时,可以为其添加污点,并通过工作负载容忍度设置,避免非GPU/NPU工作负载调度到GPU/NPU节点上。 GPU/NPU工作负载:添加指定污点的容忍度,可以调度至GPU/NPU节点。
单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。 GPU虚拟化的优势 CCE提供的GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存大小,算力
ice的自定义指标采集策略,详情请参见管理监控采集任务。 关于ServiceMonitor的创建方式请参见配置Service Monitor监控自定义指标。 PodMonitor:定义针对Pod的自定义指标采集策略,详情请参见管理监控采集任务。 关于PodMonitor的创建方式请参见配置Pod
io/api中的RuntimeClass类型和位于k8s.io/client-go中的generated clients。 已从apiserver_request_total中删除“client”标签。 参考链接 关于Kubernetes 1.19与其他版本的性能对比和功能演进的更多信息,请参考:
行选择,CCE支持的系统策略及策略间的对比,请参见CCE系统权限。若您需要对除CCE之外的其它服务授权,IAM支持服务的所有策略请参见系统权限。 具备Security Administrator权限(除IAM切换角色外的所有权限)的用户(例如,默认拥有该权限的admin用户组),
建Ingress时的转发规则先后顺序进行排序,配置在上面的优先级高;未配置该注解时,同一个Ingress的转发规则会使用ELB侧的默认排序。 未配置以上注解时,同一个ELB监听器下无论包含多个Ingress还是同一个Ingress的转发规则,都会使用ELB侧的默认排序规则。 前提条件
资源申请。当优先级相同时,资源使用/资源申请最大的Pod会被首先驱逐。 kube-controller-manager的驱逐机制是粗粒度的,即驱逐一个节点上的所有Pod,而kubelet则是细粒度的,它驱逐的是节点上的某些Pod。此类驱逐会周期性检查本节点内存、磁盘等资源,当资源
客户端连接空闲超时时间,在超过keepalive_timeout时长一直没有请求, 负载均衡会暂时中断当前连接,直到下一次请求时重新建立新的连接。 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: kubernetes.io/elb.keepalive_timeout
最新公告 以下为CCE发布的最新公告,请您关注。 序号 公告标题 公告类型 发布时间 1 Kubernetes安全漏洞公告(CVE-2024-10220) 漏洞公告 2024/12/04 2 Kubernetes安全漏洞公告(CVE-2024-9486,CVE-2024-9594)