检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用ucs-ctl命令行工具管理本地集群 ucs-ctl是管理UCS本地集群的命令行工具,它仅适用于UCS本地集群。 在使用ucs-ctl工具前,为防止您执行被篡改的ucs-ctl工具,请先进行工具的完整性校验,具体操作请参考安装及验证章节的ucs-ctl工具完整性校验操作步骤。
NPU调度 NPU调度概述 NPU节点标签 huawei-npu插件 创建NPU应用 父主题: 管理本地集群
安装本地集群的业务规划 基础软件规划 数据规划 父主题: 本地集群
问题原因:联邦需要访问CCE集群的5443端口,但是CCE集群的控制面安全组入方向规则不允许124.70.21.61(源地址)访问CCE集群的5443端口。 解决方案:修改CCE控制面入方向安全组,允许124.70.21.61(源地址)访问CCE集群的5443端口。 现象四:显示已接入集群联邦,状态异常,报错:cluster
如何更新本地集群ca/tls证书? 前提条件 本地集群各个组件运行正常。 集群各个节点处于ready状态。 操作步骤 下载ucs-ctl二进制工具,放到任一台本地集群的管控节点/root/ucs目录下。 将所有节点密码信息记录到表格中,并保存到二进制所在节点/root/ucs/update_cert
集群架构选择X86,在ARM节点上安装本地集群,则会安装失败报错: 集群架构选择ARM,在X86节点上安装本地集群,则会安装失败报错。 解决方案:集群节点CPU架构暂不支持异构混部,请确认集群架构与安装部署本地集群节点的cpu架构一致。 若集群架构选择X86,请选择X86节点上安装本地集群。 若集群架
如何手动清理本地集群节点? 使用须知 节点清理属于高危操作,会将节点上已安装的进程(包括kubernetes进程、containerd等)和数据(包括容器、镜像等)全部清理,一旦执行清理操作节点状态将不可恢复。因此,执行之前请确认节点是否已经不再被本地集群使用。 使用场景 本地集群ucs-ctl
GPU虚拟化 GPU虚拟化概述 准备GPU虚拟化资源 创建GPU虚拟化应用 监控GPU虚拟化资源 父主题: 管理本地集群
kube/config 复制该凭证内容。 在本地创建一个YAML文件,将上一步中复制的凭证内容粘贴至该文件并保存。 使用4中的YAML文件接入集群,详细步骤请继续参考注册附着集群(公网接入)或注册附着集群(私网接入)。 本地集群 关于本地集群KubeConfig详情请参见本地集群KubeConfig文件。
创建NPU应用 前提条件 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 当前不支持npu负载多容器能力。 通过控制台创建NPU应用 本节以创建无状态工作负载(Deployment)为例,说明通过控制台创建npu资源应用的方法。
NPU调度概述 UCS本地集群管理支持NPU异构资源调度能力。 可实现快速高效地处理推理和图像识别等工作。 NPU调度可以指定Pod申请NPU的数量,为工作负载提供NPU资源。 父主题: NPU调度
英文字母或数字结尾。 对外协议:HTTP、TCP、TLS、HTTPS四种协议选择一种即可。 对外端口:输入值必须在1到65,535之间。必须保证该端口未被所选的负载均衡实例监听器端口占用。 入口地址(可选):请输入域名。支持以通配符“*”开头。以通配符“*”为前缀的域名被解释为后缀匹配。即
创建NPU节点后,安装huawei-npu插件,需要给节点添加标签“accelerator/huawei-npu”,标签值可为空。 添加NPU节点标签 依次单击“本地集群>节点管理>选择节点>标签与污点管理”。 选择NPU节点,添加标签“accelerator/huawei-npu”,标签值可为空。 图1
”,标签值可为空。 使用npu插件在Ascend Snt9设备上运行,需先安装volcano插件。 约束与限制 该功能支持v1.28及以上本地集群版本。 目前仅支持arm架构,HCE2.0操作系统。 目前支持的NPU资源型号为Ascend Snt9。 Ascend Snt9设备调
本地集群如何扩容容器智能分析插件的存储磁盘? 问题描述 当容器智能分析插件(kube-prometheus-stack)所依赖的PVC存储中的磁盘写满时,prometheus-server-0 Pod的日志标准输出会出现“no space left on device”报错,此时
本地集群 本地集群概述 安装本地集群的业务规划 注册本地集群 安装本地集群 管理本地集群 父主题: UCS集群
文件的更多说明请参考使用kubeconfig文件组织集群访问。 步骤一:准备网络环境 云下、云上网络打通后,建议从本地数据中心服务器ping目标VPC下的华为云服务器私网IP,以验证网络是否成功连接。 将线下自有IDC或第三方云厂商的网络环境与华为云VPC打通。 虚拟专用网络(V
本地IDC集群迁移上云流程 UCS容器迁移支持将本地IDC自建的Kubernetes集群应用迁移到UCS华为云集群或本地集群,实现应用程序的云端部署和运维管理。迁移流程如图1所示。 图1 迁移流程 主要包含四个步骤: 集群评估 在这个阶段,您将根据源集群的现状来评估适合迁移的目标
准备GPU虚拟化资源 本文介绍如何在使用GPU虚拟化能力前所需要的基础软件、硬件规划与准备工作。 基础规划 配置 支持版本 集群版本 v1.25.15-r7及以上 操作系统 华为云欧拉操作系统 2.0 系统架构 X86 GPU类型 T4、V100 GPU驱动版本 470.57.02、510
创建GPU虚拟化应用 本文介绍如何使用GPU虚拟化能力实现算力和显存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 init容器不支持进行GPU虚拟化。