检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
定义以及大量的配置文件。 仓库(Repository):仓库是用于存放共享模板包的地方,您可以从仓库中下载模板包至本地安装,也可以选择直接在线安装。 实例(Release):实例是Helm在Kubernetes集群中安装模板包后的运行结果。一个模板包通常可以在一个集群中安装多次,
vg_attr 检测原理:检查VG(存储池)是否存在p状态,该状态表征部分PV(数据盘)丢失。 节点持久卷存储池异常调度联动:调度器可自动识别此异常状态并避免依赖存储池的Pod调度到该节点上。 例外场景:NPD无法检测所有PV(数据盘)丢失,导致VG(存储池)丢失的场景;此时依赖
None 服务介绍 云容器引擎 CCE 三分钟带你了解云容器引擎CCE 03:03 三分钟了解云容器引擎CCE 云容器引擎 CCE 探索云容器的编排与调度技术 03:19 探索云容器的编排与调度技术 特性讲解 CCE Autopilot集群 介绍CCE Autopilot集群 10:36
0及以上版本的插件支持。 全部开启:CCE会为已创建的命名空间添加标签(node-local-dns-injection=enabled),同时会识别命名空间的创建请求并自动添加标签,这些操作的目标不包含系统内置的命名空间(如kube-system)。 手动配置:手动为需要注入DNSCo
云监控服务AOM:CCE默认的基础资源监控,覆盖详细的容器相关指标,并提供告警配置能力。 开源Prometheus:面向云原生应用程序的开源监控工具,并集成独立的告警系统,提供更高自由度的监控告警配置。 监控 未配置监控告警,将无法建立容器集群性能的正常标准,在出现异常时无法及时收到告警,需要人工巡检环境。
优先级调度与抢占介绍 用户在集群中运行的业务丰富多样,包括核心业务、非核心业务,在线业务、离线业务等,根据业务的重要程度和SLA要求,可以对不同业务类型设置相应的高优先级。比如对核心业务和在线业务设置高优先级,可以保证该类业务优先获取集群资源。当集群资源被非核心业务占用,整体
jmesPath Array of Object 是 jmesPath是一种从json格式的对象中提取key-value的工具,CCE密钥管理插件使用该工具支持Secret挂载功能。 path:填写DEW服务凭据中的key。 说明: key不能带有+、-、{}、()等特殊符号。
已绑定弹性公网IP的ECS虚拟机。 登录ECS虚拟机,详情请参见Linux ECS登录方式概述。 在ECS虚拟机上安装kubectl命令行工具。 您可以尝试执行kubectl version命令判断是否已安装kubectl,如果已经安装kubectl,则可跳过此步骤。 本文以Li
修改云服务器的数据盘 待纳管云服务器的数据盘数量、大小、类型需修改成和节点池的数据盘配置相同。 数据盘数量 更多操作指导请参见ECS新增磁盘或ECS在线卸载磁盘。 登录ECS控制台。 单击目标云服务器名称,进入弹性云服务器详情页。 选择“云硬盘”页签。 如果待纳管节点的数据盘数量少于节点池配置中的数据盘数量,则需新增磁盘。
会显示一个运行中的工作负载。 您需要在集群所在VPC下准备一台已绑定弹性公网IP的ECS虚拟机。 在ECS虚拟机上安装kubectl命令行工具。 您可以尝试执行kubectl version命令判断是否已安装kubectl,如果已经安装kubectl,则可跳过此步骤。 本文以Li
vg_attr 检测原理:检查VG(存储池)是否存在p状态,该状态表征部分PV(数据盘)丢失。 节点持久卷存储池异常调度联动:调度器可自动识别此异常状态并避免依赖存储池的Pod调度到该节点上。 例外场景:NPD无法检测所有PV(数据盘)丢失,导致VG(存储池)丢失的场景;此时依赖
您可以修改节点进程ID上限,详情请参见修改节点进程 ID数量上限kernel.pid_max。 排查项二:是否在实例上设置了tolerations 通过kubectl工具或单击对应工作负载后的“更多 > 编辑YAML”,检查工作负载上是不是设置了容忍度,具体请参见污点和容忍度。 排查项三:是否满足停止驱逐实例的条件
0/25,该网段包含128个容器IP。 图4 路由 当访问容器IP时,VPC路由就会将指向目的地址的流量转发到下一跳的节点,访问示例如下。 使用kubectl命令行工具连接集群,详情请参见通过kubectl连接集群。 在集群中创建一个Deployment。 创建deployment.yaml文件,文件内容示例如下:
待纳管节点规格要求:CPU必须2核及以上,内存必须4GiB及以上,网卡有且仅能有一个。 如果使用了企业项目,则待纳管节点需要和集群在同一企业项目下,不然在纳管时会识别不到资源,导致无法纳管。从v1.21.15-r0、v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0
单击集群名称进入集群,在左侧选择“配置中心”,在右侧选择“调度配置”页签。 在专家模式配置中单击“开始使用”。 修改专家模式中的参数配置,配置负载感知调度策略,红色字体为开启负载感知调度能力增加的配置项,详情如下: admission_kube_api_qps: 200 admissions: /jobs/mutate
更有针对性,更加及时。 本方案的关键点是获取ELB的指标数据并上报到Prometheus,再将Prometheus中的数据转换成HPA能够识别的metric数据,然后HPA根据metric数据进行弹性伸缩。 基于ELB监控指标的弹性伸缩具体实施方案如下所示: 开发一个Prometheus
kubeStateMetrics (负载名称:kube-state-metrics) 将Prometheus的metrics数据格式转换成K8s API接口能识别的格式。kube-state-metrics组件在默认配置下,不采集K8s资源的所有labels和annotation。如需采集,请参考采
为模拟实际业务场景,以服务网格的经典案例Bookinfo应用为例,介绍灰度发布和蓝绿发布的完整流程。 Bookinfo应用分析 Bookinfo是一个模仿在线书店的应用,页面上会显示一本书籍的描述,书籍的细节(如页数),以及关于书籍的一些评论。 Bookinfo应用由四个单独的服务构成,几个服务
如何设置容器umask值? 问题描述 tailf /dev/null的方式启动容器,然后手动执行启动脚本的方式得到的目录的权限是700,而不加tailf由Kubernetes自行启动的方式得到的目录权限却是751。 解决方案 这个问题是因为两种方式设置的umask值不一样,所以创建出来的目录权限不相同。
everest-csi-controller通过端口3225暴露Prometheus metrics指标。您可以自建Prometheus采集器识别并通过http://{{everest-csi-controllerPodIP}}:3225/metrics路径获取everest-csi-controller相关指标。