检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
GPU调度 GPU调度概述 准备GPU资源 创建GPU应用 监控GPU资源 父主题: 管理本地集群
0/24这个子网。 已获取待添加集群的KubeConfig文件,具体操作步骤因厂商而异,请参见KubeConfig。关于KubeConfig文件的更多说明请参考使用kubeconfig文件组织集群访问。 准备网络环境 云下、云上网络打通后,建议从本地数据中心服务器ping目标VPC下的华为云服务器私网IP,以验证网络是否成功连接。
在默认情况下,镜像启动时会运行默认命令,如果想运行特定命令或重写镜像默认值,需要进行相应设置。 Docker的镜像拥有存储镜像信息的相关元数据,如果不设置生命周期命令和参数,容器运行时将运行镜像制作时提供的默认的命令和参数,Docker将这两个字段定义为ENTRYPOINT和 CMD。
将位于本地数据中心的Kubernetes集群迁移到华为云UCS管理的Kubernetes集群,实现应用程序的云端部署和运维管理。 第三方云集群跨云迁移 将位于其他云服务提供商的Kubernetes集群迁移到华为云UCS管理的Kubernetes集群,实现跨云迁移和统一管理。 不同Region
metadata ObjectMeta object 基本信息。 spec RuleSpec object spec是集合类的元素类型,您对需要管理的对象进行详细描述的主体部分都在spec中给出。UCS通过spec的描述来创建或更新对象。 表5 ObjectMeta 参数 参数类型 描述
容忍策略 容忍策略允许调度器将Pod调度至带有对应污点的节点上,需要与节点污点配合使用。每个节点可以添加一个或多个污点,对于未设置节点容忍策略的Pod,调度器会根据集群上的污点效果进行选择性调度,以避免Pod被分配到不合适的节点上。 通过控制台配置容忍策略 登录UCS控制台。 在
通过Kubectl命令创建MCI对象 使用kubectl连接集群联邦,详细操作请参见使用kubectl连接集群联邦。 创建并编辑 mci.yaml 文件,文件内容定义如下所示,参数定义请参见表1。 vi mci.yaml apiVersion: networking.karmada.io/v1alpha1
进入本地集群中的节点内,执行卸载命令。 ./ucs-ctl delete cluster cluster_name cluster_name请替换为集群名称。 父主题: 管理本地集群
l来进行集群升级,对于管理组件和管理节点的升级,命令如下: ./ucs-ctl upgrade cluster [cluster_name] [flags] 可以配置的flag如下: -a:节点的全量升级,默认情况下upgrade cluster只会升级管理面节点和服务组件,加上
本地集群KubeConfig文件 获取本地集群KubeConfig文件 KubeConfig是Kubernetes集群中组织有关集群、用户、命名空间和身份认证机制信息的配置文件,Kubectl使用KubeConfig来获取集群的信息并与API server进行通信。 获取本地集群
域名在第三方域名注册商处注册,需要使用UCS进行流量管理,此时可通过添加域名至华为云云解析服务(DNS)来解决,UCS流量管理控制台将自动获取已添加解析的域名。 步骤一:添加域名 通过第三方域名注册商注册的域名,需要通过“创建公网域名”操作添加至云解析服务。 登录管理控制台。 将鼠标悬浮于页面左侧的图标,在服务列表中,选择“网络
工具能够自动收集源集群的信息,包括Kubernetes版本、规模、工作负载、存储等数据,并根据收集到的数据为您提供推荐的目标集群信息。具体请参见集群评估。 存储迁移 在这个阶段,您将把云硬盘的数据迁移到目标AZ。具体请参见存储迁移。 应用备份 在这个阶段,您将对源AZ集群中的应用
s集群,如AWS(EKS)、GCP(GKE)以及自建的Kubernetes集群。 附着集群的管理流程如图1所示。 图1 附着集群管理流程 接入网络模式 对于附着集群,各集群提供商或本地数据中心对于网络入方向的端口规则有差异,防止特定端口外的入站通信。因此UCS使用集群网络代理的连
加入容器舰队,详请可参见管理容器舰队。 CCE集群: 2个CCE turbo集群,集群控制面节点3AZ部署,创建集群详情可参见购买Standard/Turbo集群; 集群计算节点分别创建AZ1、AZ2节点池,创建节电池详情可参见创建节点池。 集群内分别安装集群弹性引擎(Cluster
中。 描述 否 容器舰队的相关描述信息。 单击“确定”,创建舰队。 后续步骤 将需要管理的集群添加至本小节中创建的容器舰队中,具体操作请参见步骤三:为容器舰队添加集群。 父主题: 快速创建和管理容器舰队
NPU调度概述 UCS本地集群管理支持NPU异构资源调度能力。 可实现快速高效地处理推理和图像识别等工作。 NPU调度可以指定Pod申请NPU的数量,为工作负载提供NPU资源。 父主题: NPU调度
GPU调度概述 工作负载支持使用节点GPU资源,GPU资源使用可以分为如下两种模式: GPU静态分配(共享/独享):按比例给Pod分配GPU显卡资源,支持独享(分配单张/多张显卡)和共享(部分显卡)方式。 GPU虚拟化:UCS On Premises GPU采用xGPU虚拟化技术
其余信息都配置完成后,单击“创建”。 通过kubectl命令行创建GPU应用 使用kubectl连接集群。 创建使用GPU的应用。 创建gpu-app.yaml文件,内容如下: 静态分配 apiVersion: apps/v1 kind: Deployment metadata: name: gpu-app
监控GPU资源 本章介绍如何在UCS控制台界面查看GPU资源的全局监控指标。 前提条件 完成GPU资源准备。 当前本地集群已创建GPU资源。 当前本地集群开启了监控能力。 GPU监控 登录UCS控制台,在左侧导航栏选择“容器智能分析”。 选择对应的集群并开启监控,详细操作请参照集群开启监控。
确保用户具有“Tenant Administrator”权限。 kubectl配置指南 asm-iam-authenticator使用参考 父主题: 网格管理