检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kubernetes 1.30版本说明 云容器引擎(CCE)严格遵循社区一致性认证,现已支持创建Kubernetes 1.30集群。本文介绍Kubernetes 1.30版本的变更说明。 索引 新增特性及特性增强 API变更与弃用 CCE对Kubernetes 1.30版本的增强
21 v1.23 v1.25 节点池支持配置GPU驱动版本 支持GPU指标采集 1.2.20 v1.19 v1.21 v1.23 v1.25 设置插件别名为gpu 1.2.17 v1.15 v1.17 v1.19 v1.21 v1.23 增加nvidia-driver-install
定的正常与异常的分界线,不影响业务正常运行即属于正常范围。因此,无法定义通用的告警阈值,可以观察业务稳态运行时的指标数据,根据正常波动范围设置合理的告警阈值,或使用单位时间内指标数据的变化量作为告警检测对象。 配置日志采集 Kubernetes日志可以协助您排查和诊断问题。其中,
Kubernetes 1.30版本说明 云容器引擎(CCE)严格遵循社区一致性认证,现已支持创建Kubernetes 1.30集群。本文介绍Kubernetes 1.30版本的变更说明。 索引 新增特性及特性增强 API变更与弃用 CCE对Kubernetes 1.30版本的增强
credential:添加到Jenkins的集群凭证,请填写凭证ID。如果需要部署在另一个集群,需要重新将这个集群的访问凭证添加到Jenkins,具体操作请参考设置集群访问凭证。 apiserver:部署应用集群的APIserver地址,需保证从Jenkins集群可以正常访问该地址。 //定义代码仓地址
kube-prometheus-stack插件实例调度失败如何解决? 问题现象 安装kube-prometheus-stack插件时, 插件状态一直处于“部分就绪”,查看插件的prometheus实例事件中提示“0/x nodes are available: x node(s)
GPU虚拟化概述 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。
Kubeflow部署 Kubeflow的诞生背景 基于Kubernetes构建一个端到端的AI计算平台是非常复杂和繁琐的过程,它需要处理很多个环节。如图1所示,除了熟知的模型训练环节之外还包括数据收集、预处理、资源管理、特性提取、数据验证、模型的管理、模型发布、监控等环节。对于一
单个容器空间(每个容器需预留约1G日志空间) 当容器日志选择默认的json.log形式输出时,会占用dockersys分区,若容器日志单独设置持久化存储,则不会占用dockersys空间,请根据实际情况估算单个容器空间。 例如: 假设节点的存储类型是OverlayFS,节点数据盘
集群备份恢复 CCE备份恢复为无状态和有状态应用的备份和恢复提供了一套可靠、安全、灵活且高效的解决方案。通过遵循CCE备份恢复的全流程指导,您可以顺利地完成应用的备份和恢复。 建议在用户业务量小时执行备份和恢复操作。 方案优势 易用性:在应用备份和恢复阶段,已实现工具自动化。这些工具免安装,简单轻量且配置灵活。
default.gc_thresh3确定,此内核参数非namespace隔离,节点和节点上运行容器会共用ARP表项大小。容器场景下,该参数推荐设置为163790。 此内核参数计算公式如下: CCE Turbo集群&容器隧道网络模型集群: net.ipv4.neigh.default.gc_thresh3
公平调度(DRF) DRF(Dominant Resource Fairness)是主资源公平调度策略,应用于大批量提交AI训练和大数据作业的场景,可增强集群业务的吞吐量,整体缩短业务执行时间,提高训练性能。 前提条件 已创建v1.19及以上版本的集群,详情请参见购买Standard/Turbo集群。
存储概述 存储概览 CCE的容器存储功能基于Kubernetes容器存储接口(CSI)实现,深度融合多种类型的云存储并全面覆盖不同的应用场景,而且完全兼容Kubernetes原生的存储服务,例如EmptyDir、HostPath、Secret、ConfigMap等存储类型。 图1
迁移节点 您可以将同一个集群下节点在节点池间进行迁移,具体迁移场景如表1。 表1 迁移场景 迁移场景 是否支持迁移 操作步骤 原节点池 待迁移的目标节点池 自定义节点池 默认节点池(DefaultPool) 支持迁移 将自定义节点池中的节点迁移到默认节点池 默认节点池(DefaultPool)
监控运维配置 CCE为您提供监控应用及资源的能力,支持采集各项指标及事件等数据以分析应用健康状态,您可以通过“配置中心 > 监控运维配置”统一调整监控运维参数。 您需要开通监控中心,以使用监控运维配置的所有功能。 监控配置 采集配置 系统预置采集:可视化管理云原生监控插件的监控采集任务。详情请参见管理监控采集任务。
节点预留资源策略说明 节点的部分资源需要运行一些必要的Kubernetes系统组件和Kubernetes系统资源,使该节点可作为您的集群的一部分。 因此,您的节点资源总量与节点在Kubernetes中的可分配资源之间会存在差异。节点的规格越大,在节点上部署的容器可能会越多,所以K
period=10s 表示每10s探测一次 #success=1 探测连续1次成功表示成功 #failure=3 探测连续3次失败表示失败 这些是创建时默认设置的,您也可以手动配置,如下所示。 readinessProbe: # Readiness Probe
服务发起请求,获取凭据secret_1最新版本的值,并将其刷新至引用了该SPC对象的Pod内。此处插件周期性发起请求的时间间隔由安装插件时设置的rotation_poll_interval参数确定。 实时感知SPC变化 在使用Volume挂载凭据、定时轮转的演示中,其实已经使用到
net.core.somaxconn /etc/sysctl.conf TCP最大连接数,该参数控制TCP连接队列的大小。参数值过小时极易不足,设置过大则可能会导致系统资源的浪费,因为连接队列中每个等待连接的客户端都需要占用一定的内存资源。 查看参数: sysctl net.core.somaxconn
配置节点故障检测策略 节点故障检查功能依赖node-problem-detector(简称:npd),npd是一款集群节点监控插件,插件实例会运行在每个节点上。本文介绍如何开启节点故障检测能力。 前提条件 集群中已安装CCE节点故障检测插件。 开启节点故障检测 登录CCE控制台,单击集群名称进入集群。