检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
上节说的PV和PVC方法虽然能实现屏蔽底层存储,但是PV创建比较复杂(可以看到PV中csi字段的配置很麻烦),通常都是由集群管理员管理,这非常不方便。 Kubernetes解决这个问题的方法是提供动态配置PV的方法,可以自动创PV。管理员可以部署PV配置器(provisioner),然后定义对应的StorageCl
在CCE集群中部署使用Kubeflow Kubeflow部署 Tensorflow训练 使用Kubeflow和Volcano实现典型AI训练任务 父主题: 批量计算
在CCE集群中部署使用Tensorflow 资源准备 购买CCE集群,购买GPU节点并使用gpu-beta插件安装显卡驱动。 在集群下添加一个对象存储卷。 数据预置 从https://github.com/zalandoresearch/fashion-mnist下载数据。 获取
权限 能否只配置命名空间权限,不配置集群管理权限? 如果不配置集群管理权限的情况下,是否可以使用API呢? 如果不配置集群管理权限,是否可以使用kubectl命令呢? IAM用户无法使用调用API
告警中心 告警中心概述 通过告警中心一键配置告警 通过CCE配置自定义告警 通过AOM配置自定义告警 CCE事件列表 父主题: 云原生观测
通过Kubectl命令行创建ELB Ingress 用于配置ELB Ingress的注解(Annotations) ELB Ingress高级配置示例 ELB Ingress转发策略优先级说明 多个Ingress使用同一个ELB对外端口的配置说明 父主题: 路由(Ingress)
com/gpu资源(即配置nvidia.com/gpu为小数,例如0.5)时将通过虚拟化GPU提供,实现GPU显存隔离,按照设定值的百分比为容器分配GPU显存(例如分配0.5×16GiB=8GiB的GPU显存,该数值需为128MiB的整数倍否则会自动向下取整)。配置nvidia.co
EulerOS 2.0。 集群中需要安装Volcano 1.9.0及以上版本的插件,且开启混合部署开关。 操作步骤 登录CCE控制台,单击集群名称进入集群。 在左侧导航栏中选择“节点管理”,在需要开启CPU Burst弹性限流的节点池中,单击“更多 > 混部配置”。 确认“节点池混部开关”及“CPU
在CCE集群中部署使用Caffe 预置条件 资源准备 Caffe分类范例 父主题: 批量计算
在CCE集群中部署使用Spark 安装Spark 使用Spark on CCE 父主题: 批量计算
业务容器CPU核数限制值之和(未配置限制值时采用节点总量) 内存使用率 节点内存使用率 = 节点的内存使用量除以节点的内存总量。 工作负载内存使用率 = 工作负载各个Pod中内存使用率的平均值 Pod内存使用率 = Pod实际使用的物理内存 / 业务容器物理内存限制值之和(未配置限制值时采用节点总量)
登录在集群中添加GPU节点添加的节点,执行docker logs {容器id}查看归类结果,可以看到结果:tabby cat。 父主题: 在CCE集群中部署使用Caffe
到节点上限后,导致该节点无法继续新建Pod。 解决方法 该问题可以通过可以在内核层全局使用 “cgroup.memory=nokmem” 参数关闭kmem使用防止发生泄漏。 1.17集群版本已停止维护,修复该问题建议升级至1.19及以上集群版本,并通过节点重置为最新版本的操作系统修复该问题,确保内核版本高于3
操作系统为Huawei Cloud EulerOS。 存量节点池 将CentOS操作系统切换为支持切换的操作系统。如果现有的节点配置(VPC、磁盘等配置的类型和数量)都不需要改变,仅需要修改节点的操作系统镜像,并且您的软件和原操作系统耦合度较低,建议使用重置节点的功能进行系统切换。
and labels:' zip(output_prob[top_inds], labels[top_inds]) 父主题: 在CCE集群中部署使用Caffe
使用共享VPC创建CCE Turbo集群 集群日常管理实践 预防集群过载的配置建议 CCE集群高可用推荐配置 通过kubectl对接多个集群 集群视角的成本可视化最佳实践 集群安全实践 CCE集群安全配置建议 集群迁移实践 将K8s集群迁移到CCE 父主题: 集群
避免集群中的重要数据丢失。 操作步骤 登录CCE控制台,单击集群名称进入集群控制台。 在集群控制台左侧导航栏中选择“配置中心”。 单击“配置概览”页签,在“集群配置”中找到“禁止集群删除”,单击“开启”。开启后将禁止用户从CCE侧删除或退订集群。 图1 禁止集群删除 父主题: 管理集群
GPU/NPU节点添加accelerator=true:NoSchedule的污点。 图1 添加污点 创建GPU/NPU工作负载时,在高级配置中,手动添加容忍策略,容忍该污点。 图2 容忍策略 普通工作负载创建时,无需添加容忍策略。由于未容忍该污点,则不会被调度到GPU/NPU节点。
tes版本匹配。 安装模板时,模板中的一些资源可能已经创建成功,因此首先要手动删除这些资源。确保残留的资源删除后,需删除模板实例。 若为 helm v2 的实例,在kube-system命名空间下查询模板实例对应的配置项(ConfigMap),例如: 删除该配置项,此时模板实例即删除成功:
导致分布不均匀。详细的调度说明请参见Kubernetes 调度器和调度策略。 为什么Pod数量在节点上分布不均匀 资源需求:不同节点的资源配置可能不同,例如CPU、内存大小,导致Pod中定义的Request值无法被满足。即使节点实际负载很低,也无法调度到该节点。 自定义调度策略: