检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
工作负载弹性伸缩 工作负载伸缩原理 创建HPA策略 创建使用自定义指标的HPA策略 创建CronHPA定时策略 创建CustomedHPA策略 创建VPA策略 创建AHPA策略 管理工作负载弹性伸缩策略 父主题: 弹性伸缩
存储管理-Flexvolume(已弃用) 存储Flexvolume概述 1.15集群如何从Flexvolume存储类型迁移到CSI Everest存储类型 云硬盘存储卷 极速文件存储卷 对象存储卷 文件存储卷
在CCE中安装部署Jenkins 在CCE中安装部署Jenkins方案概述 资源和成本规划 实施步骤 父主题: DevOps
Everest存储类型 自定义StorageClass 使用延迟绑定的云硬盘(csi-disk-topology)实现跨AZ调度 使用通用文件存储(SFS 3.0)自动收集异常退出的JVM转储文件 存储多可用区部署的推荐配置
实施步骤 集群外资源迁移 迁移工具安装 集群内资源迁移(Velero) 资源更新适配 其余工作 异常排查及解决 父主题: 将K8s集群迁移到CCE
Jenkins Master安装部署 Jenkins Agent配置 使用Jenkins构建流水线 参考:Jenkins对接Kubernetes集群的RBAC 父主题: 在CCE中安装部署Jenkins
从Pod访问集群外部网络 从Pod访问公网 从Pod访问同一VPC网络的云服务 从Pod访问不同VPC网络的云服务 父主题: 网络
23,推荐使用>=2.1.23版本。 节点上的第一块数据盘(供容器运行时和Kubelet组件使用)不支持导入为存储池。 条带化模式的存储池不支持扩容,条带化存储池扩容后可能造成碎片空间,无法使用。 存储池不支持缩容和删除。 如果删除节点上存储池的磁盘,会导致存储池异常。 导入存储池 创建节点时导入
条带化:创建逻辑卷时指定条带化,当实际写入数据时会将连续数据分成大小相同的块,然后依次存储在多个物理卷上,实现数据的并发读写从而提高读写性能。多块卷才能选择条带化。 扩容存储池 存储池扩容可采用两种方式 通过以上手动导入的方式新增大容量磁盘。 前往ECS界面扩容已导入的云硬盘,详细操作请参见扩容云硬盘,然后等待存储池自动扩容。
修改节点内核参数 由于默认的Linux内核参数不一定符合所有用户场景,用户可通过修改节点上的/etc/sysctl.conf配置文件来更改内核参数。 修改节点系统参数的命令仅在使用公共镜像时有效,使用私有镜像时本文中提供的命令仅供参考。 节点重启后需执行sysctl -p用于刷新参数值。
单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。 GPU虚拟化的优势 CCE提供的GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存大小,算力
检查当前集群内使用containerd的节点在升级containerd组件时,节点上运行的业务容器是否可能发生重启,造成业务影响。 解决方案 检测到您的节点上的containerd服务存在重启风险;请确保在业务影响可控的前提下(如业务低峰期)进行集群升级,以消减业务容器重启带来的影响; 如需帮助,请提交工单联系运维人员获取支持。
fluent-bit: 采集节点日志的组件 cop-logs: 用于生成各节点需要采集文件的软链 log-operator:用于生成fluent-bit和otel-collector的配置 otel-collector:用于上报采集的日志和事件到AOM和LTS requestsCpu 是
当Pod的Annotations配置符合Prometheus采集规范的规则后,Prometheus会自动采集这些Pod暴露的指标。 如上所述的nginx:exporter提供的监控数据,其数据格式并不满足Prometheus的要求,需要将其转换成Prometheus需要的格式,可
从Pod访问公网 从Pod访问公网的实现方式 从Pod中访问公网地址的实现方式会因集群网络模式的不同而不同,具体请参见表1。 表1 从Pod访问公网的实现方式 实现方式 容器隧道网络 VPC网络 云原生2.0网络 给容器所在节点绑定公网IP 支持 支持 不支持 给Pod绑定弹性公网IP
0 x86的节点上,非Huawei Cloud EulerOS 2.0 x86的节点不会部署agent。 默认节点池不支持修改混部配置。 云原生混部配置 云原生混部以节点池粒度进行管理,您需要在节点池打开混部开关并进行混部配置。默认的混部配置,会启用混部所有能力并设置默认参数。您可以对默认的混部配置进行修改。
参考使用GPU虚拟化章节,创建使用GPU虚拟化资源的无状态负载,并将GPU申请量设为大于集群现有GPU资源上限。例如:集群中有16GiB显存的资源,假设每个Pod占用1GiB显存,则设置Pod数量为17个,合计17GiB显存。 在等待一小段时间后,可以在节点池详情页面中,可观察到GPU节点的扩容。 父主题: GPU调度
权重值。 增大策略对应的权重值,可以使该策略在节点打分时发挥更大的影响力。 NodeOrder和Binpack对某个节点的给出的基础分值,并根据对应的权重值进行倍数放大,调整插件中某个策略的权重值后,该策略对于节点打分的整体影响力增加,其他插件对节点评分的影响力将会同步被削弱。 公平调度
情页,在选择“调度策略”页签,删除原节点的亲和性配置,配置新的节点亲和性和反亲和性策略,详情请参见设置节点亲和调度(nodeAffinity)。 工作负载迁移成功后,在工作负载详情页的“实例列表”页签,可查看到工作负载已迁移到1中所创建的节点上。 删除原有节点。 工作负载迁移成功且运行正常后,即可删除原有节点。
开启集群过载控制 操作场景 过载控制开启后,将根据控制节点的资源压力,动态调整系统外LIST请求的并发限制,维护控制节点和集群的可靠性。 约束与限制 集群版本需为v1.23及以上。 开启集群过载控制 方式一:创建集群时开启 创建v1.23及以上集群时,可在创建集群过程中,开启过载控制选项。