检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
gpu-device-plugin 插件简介 gpu-device-plugin插件是支持在容器中使用GPU显卡的设备管理插件,集群中使用GPU节点时必须安装本插件。 约束与限制 下载的驱动必须是后缀为“.run”的文件。 仅支持Nvidia Tesla驱动,不支持GRID驱动。
在弹出的“卸载插件”按钮中选择“是”,即可卸载该插件。 昇腾芯片驱动安装 请确保昇腾芯片已插入到节点上,确认设备型号,并从昇腾官方社区下载设备驱动,以及参考驱动安装指导进行安装: 安装完成后,执行以下命令,可查看节点的/dev目录下所有的芯片设备。 ls -l /dev/davinci* 执行如下命令,查看驱动加载是否成功。
效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 init容器不支持进行GPU虚拟化。 对于单张GPU卡: 最多虚拟化为20个GPU虚拟设备。 最多调度20个使用隔离能力的Pod。
请到Kubernetes版本发布页面下载1.25版本对应的kubectl。 Apple M1芯片是darwin-arm64架构,如果使用Apple M1芯片的设备,需要下载对应架构的kubectl。 下载asm-iam-authenticator 在ASM官网下载asm-iam-authenticator二进制,最新版本为v1
v1.2 所有节点 源设备所在节点IP ALL NTP server 目的设备所在节点IP 123 UDP ntp 否 无 无 所有节点 源设备所在节点IP ALL DNS server 目的设备所在节点IP 53 UDP dns 否 无 无 所有节点 源设备所在节点IP ALL 自建APT源
显卡)方式。 GPU虚拟化:UCS On Premises GPU采用xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户定义使用的GPU数量,提高GPU利用率。
若您的集群使用本地存储,迁移上云可以使用华为云数据快递服务 DES。DES服务是一种海量数据传输解决方案,支持TB到几百TB级数据上云,通过Teleport设备或硬盘(外置USB接口、SATA接口、SAS接口)向华为云传输大量数据,致力于解决海量数据传输网络成本高、传输时间长等难题。 若您的集群对
若您的集群使用了云硬盘,跨云迁移可以使用华为云数据快递服务 DES。DES服务是一种海量数据传输解决方案,支持TB到几百TB级数据上云,通过Teleport设备或硬盘(外置USB接口、SATA接口、SAS接口)向华为云传输大量数据,致力于解决海量数据传输网络成本高、传输时间长等难题。 若您的集群使
集群--XGPU设备显存使用率 集群--XGPU设备算力使用率 节点--XGPU设备显存使用率 节点--XGPU设备算力使用率 节点--XGPU设备数量 节点--XGPU设备显存分配量 GPU卡--XGPU设备显存使用率 GPU卡--XGPU设备显存分配量 GPU卡--XGPU设备显存分配率
选择“插件管理”,查看“已安装插件”中是否存在volcano插件与gpu-device-plugin插件。 若未安装gpu-device-plugin插件,请安装该插件,具体操作请参见gpu-device-plugin。 若要开启GPU虚拟化,请安装volcano插件,具体操作请参见volcano。
检查命令:uname -r 4.18.0-372.9.1.el8.x86_64 HCE OS 2.0 Cilium 检查命令:cat /etc/os-release Huawei Cloud EulerOS 2.0 (x86_64) 检查命令:uname -r 5.10.0-60.18.0.50
统一生态建设 UCS构建了标准的金融应用生态,可以实现应用的跨地域跨云的统一分发和部署,支持业务实例跨云迁移。 云边统一协同 实现海量终端及边缘侧设备、应用的协同管理,加速金融行业智能安防、智慧网点的建设。 多云统一协同 构建多地多中心的金融数字化业务架构,实现跨云跨数据中心的统一治理。
e-backup插件 插件简介 E-Backup是云原生存储系统(Everest2.0)中负责云原生应用数据保护的子系统。它支持用户将应用数据(k8s资源)和业务数据(pv卷中的数据)备份到OBS桶中,也允许用户将某次备份数据恢复到指定的K8s集群中。 E-Backup通过备份和
限制:允许容器使用的内存最大值。如果超过,容器会被终止。 关于CPU/内存配额申请和限制的具体说明请参见设置容器规格。 异构资源 当已安装gpu-device-plugin插件时,可配置GPU限制值,详情请参见GPU调度。 当已安装huawei-npu插件时,可配置NPU限制值,详情请参见NPU调度。
装、舰队集群接入四个阶段任务信息。 查看事件 启用网格之后,您可以在服务网格总览页查看网格运维事件。如果您还没有开通AOM2.0服务,您可以开通AOM 2.0。 事件保存时间为30天,30天后自动清除数据。 图1 事件详情 父主题: 网格管理
限制:允许容器使用的内存最大值。如果超过,容器会被终止。 关于CPU/内存配额申请和限制的具体说明请参见设置容器规格。 异构资源 当已安装gpu-device-plugin插件时,可配置GPU限制值,详情请参见GPU调度。 当已安装huawei-npu插件时,可配置NPU限制值,详情请参见NPU调度。
配置VPN网关的Tunnel隧道IP地址。 说明: 对端网关需要对此处的本端接口地址/对端接口地址做镜像配置。 169.254.70.2/30 对端隧道接口地址 配置在用户侧设备上的tunnel接口地址。 169.254.70.1/30 检测机制 用于多链路场景下路由可靠性检测。 说明: 功能开启前,请确认对端网关
CIAOperations(建议)权限的用户可进行容器智能分析相关的操作。 本地集群和附着集群目前只支持将指标和事件上报到北京四Region的AOM 2.0和LTS服务;华为云集群目前只支持北京四、上海一Region启用容器智能分析服务。 使用流程 容器智能分析的使用流程如图1所示。 图1 容器智能分析使用流程
是否支持underlay网络 华为云集群/伙伴云集群 CCE集群 容器隧道网络 不支持 VPC网络 支持 CCE Turbo集群 云原生网络2.0 支持 本地集群 本地集群 同时支持overlay和underlay网络。 默认为overlay网络,要启用underaly网络需要手动配
"HugePages2Mi": "0", "Arch": "amd64", "OS": "EulerOS 2.0 (SP9x86_64)", "KernelVersion": "4.18.0-147.5.1.6.h687.eulerosv2r9