检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
云硬盘存储卷 云硬盘存储卷概述 使用kubectl自动创建云硬盘 使用kubectl对接已有云硬盘 使用kubectl部署带云硬盘存储卷的工作负载 父主题: 存储管理-Flexvolume(已弃用)
实施步骤 集群外资源迁移 迁移工具安装 集群内资源迁移(Velero) 资源更新适配 其余工作 异常排查及解决 父主题: 将K8s集群迁移到CCE
节点ID文件检查异常处理 检查项内容 检查节点的ID文件内容是否符合格式。 解决方案 在CCE控制台上的“节点管理”页面,单击异常节点名称进入ECS界面。 复制节点ID,保存到本地。 图1 复制节点ID 登录异常节点,备份文件 。 cp /var/lib/cloud/data/instance-id
emptyDir的一些用途: 缓存空间,例如基于磁盘的归并排序。 为耗时较长的计算任务提供检查点,以便任务能从崩溃前状态恢复执行。 emptyDir配置示例如下。 apiVersion: v1 kind: Pod metadata: name: nginx spec: containers:
程集(DaemonSet)。 图1 创建守护进程集 建议您使用日常测试的镜像作为基础镜像。您可参照如下YAML部署最小应用Pod。 该测试YAML将DaemonSet部署在default命名空间下,使用ngxin:perl为基础镜像,申请10m CPU,10Mi内存,限制100m
附录 状态码 错误码 获取项目ID 获取账号ID 创建集群时指定要安装的插件 如何获取接口URI中参数 创建VPC和子网 创建密钥对 节点规格(flavor)说明 创建节点时password字段加盐加密的方法 节点可创建的最大Pod数量说明 节点操作系统 默认数据盘空间分配说明 节点磁盘挂载
节点创建 CCE集群新增节点时的问题与排查方法? CCE集群纳管节点时的常见问题及排查方法? 纳管节点时失败,报错“安装节点失败”如何解决? CCE支持等保三级认证吗? 父主题: 节点
漏洞公告 漏洞修复策略 Kubernetes安全漏洞公告(CVE-2024-10220) Kubernetes安全漏洞公告(CVE-2024-9486,CVE-2024-9594) NVIDIA Container Toolkit容器逃逸漏洞公告(CVE-2024-0132) Linux
CCE集群创建失败的原因与解决方法? 概述 本文主要介绍在CCE集群创建失败时,如何查找失败的原因,并解决问题。 详细信息 集群创建失败的原因包括: ntpd没安装或者安装失败、k8s组件预校验不过、磁盘分区错误等,目前只能尝试重新创建,定位方法请参见定位失败原因。 当前集群规模所需的底层资源不足,请选择其他规模的集群类型后重新创建集群。
集群 CCE集群选型建议 通过CCE搭建IPv4/IPv6双栈集群 制作CCE节点自定义镜像 创建节点时执行安装前/后脚本 创建节点时使用OBS桶实现自定义脚本注入 通过kubectl对接多个集群 选择合适的节点数据盘大小 集群视角的成本可视化最佳实践 使用共享VPC创建CCE Turbo集群
华为云容器服务CCE Autopilot于2024年9月30日00:00(北京时间)转商 发布时间:2024/08/29 华为云计划于2024年9月30日00:00(北京时间)将容器服务CCE Autopilot正式转商用。 服务正式商用后将收取集群管理费用,其余费用与公测期间保
8版本ASM网格,若要升级至v1.25版本集群时,请先升级ASM网格至1.15版本后再进行v1.25版本集群升级。 若您没有安装ASM网格服务,请检查集群中是否安装了开源的istio服务。如果安装了istio服务,请您自行确定当前istio版本是否与升级后集群版本兼容。如果兼容则可选择跳过后重新检查
检查方式 /usr/bin/python --version echo $? 如果回显值不为0证明检查失败。 解决方案 可优先重置节点或手动安装Python之后再进行升级。 父主题: 升级前检查异常问题排查
创建PVC时动态创建SFS Turbo子目录,实现不同工作负载共享使用SFS Turbo。 前提条件 您已经创建好一个集群,并且在该集群中安装2.3.23及以上版本的CCE容器存储(Everest)。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。
调度策略 如何让多个Pod均匀部署到各个节点上? 如何避免节点上的某个容器被驱逐? 为什么Pod在节点不是均匀分布? 如何驱逐节点上的所有Pod? 如何查看Pod是否使用CPU绑核? 节点关机后Pod不重新调度 如何避免非GPU/NPU负载调度到GPU/NPU节点? 为什么Pod调度不到某个节点上?
CCE集群删除之后相关数据能否再次找回? 问题描述: CCE集群删除之后相关数据能否再次找回? 问题解答: 集群删除之后,部署在集群上的工作负载也会同步删除,无法恢复,请慎重删除集群。 父主题: 集群运行
选中时间内成本分布。当前资源涵盖范围有:ECS成本、EVS成本、CCE集群管理成本 成本趋势 每天的成本分布趋势。从中可以看出,集群内成本开销趋势,可识别花费较高的资源 图3 集群各维度成本分析 名称 含义 命名空间 命名空间总成本:按命名空间聚合工作负载的成本,包括 CPU 成本(ECS)、内存成本(ECS)、EVS
工作负载异常:存储卷无法挂载或挂载超时 工作负载异常:一直处于创建中 工作负载异常:Pod一直处于Terminating状态 工作负载异常:已停止 工作负载异常:GPU节点部署服务报错 工作负载异常:添加存储失败 工作负载异常:实例无法写入数据 工作负载异常:Init容器启动失败 工作负载异常:OOM问题 工作负载状态正常但未正常工作
riskSource 参数 参数类型 描述 configurationRisks Array of configurationRisks objects 配置风险项 deprecatedAPIRisks Array of deprecatedAPIRisks objects 废弃API风险 nodeRisks
com/gpu 排查思路: 确认节点标签是否已经打上nvidia资源。 查看nvidia驱动运行是否正常。 到插件运行所在的节点上,查看驱动的安装日志,路径如下所示: /opt/cloud/cce/nvidia/nvidia_installer.log 查看nvidia容器标准输出日志: