检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
}, { "name": "nodeCSIscheduling" }, {
集群过载监控 方式一:CCE界面 登录CCE控制台,进入一个已有的集群(集群版本为v1.23及以上)。 在概览页面,查看控制节点信息,将会显示“过载等级”指标。 过载等级如下: 熔断:拒绝所有外部流量 重度过载:拒绝75%外部流量 中度过载:拒绝50%外部流量 轻度过载:拒绝25%外部流量
集群健康度评估包括多个维度,如健康评分、待处理风险项数、风险等级,以及诊断风险项在Master、集群、节点、工作负载和外部依赖五个方面的占比(异常数据使用红色突出显示)。欲了解更多诊断结果,请前往健康中心页面查看。 图1 集群健康度 健康概况 资源健康概况 资源健康概况涵盖了节点、工作负载和Pod三类资
nt的组件,用于采集指标、日志和应用性能数据。对于在ECS、BMS控制台直接购买的主机,您需手动安装ICAgent。对于集群节点,ICAgent会自动安装,您不用手动安装ICAgent。详情请参见安装ICAgent(华为云主机)。 父主题: 监控中心
所在行,查看版本号所在行数。 cat ./spark/dev/make-distribution.sh |grep -n '^VERSION=' -A18 显示129行到147行,将这些内容注释,并指定版本。 sed -i '129,147s/^/#/g' ./spark/dev/make-distribution
后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。 如果您的CCE集群中存在GPU(ECS)节点,并使用了CCE推荐的NVIDIA GPU驱动版本(Tesla 396.37),按照目前NVIDIA官方公告判断暂不受影响;如果您自行安装或更新过节点上的NVIDIA
存储容量,单位Gi,必须和已有pv的storage大小保持一致。 volumeName PV的名称。 极速文件存储所在VPC,子网必须与工作负载规划部署的ECS虚拟机的VPC保持一致,安全组开放入方向端口(111、445、2049、2051、20048)。 创建PV。 kubectl create -f
npu-driver-installer 实例状态为“运行中”。 若在NPU驱动安装完成前就重启了节点,可能导致驱动安装失败,节点重启后集群“节点管理”页面对应的节点会显示“驱动未就绪”。此时需要先卸载该节点上的NPU驱动,再重启 npu-driver-installer Pod,才能重新安装NPU驱动,按上
卷容量大小 创建工作负载。 kubectl apply -f nginx-emptydir.yaml 本地临时卷异常处理说明 用户如果手动从ECS侧卸盘、手动执行vgremove两种误操作致临时卷存储池异常。可以先将节点设置为不可调度,具体方法请参见一键设置节点调度策略,然后通过重置节点进行恢复。
Immediate allowVolumeExpansion: true 使用kubectl create命令创建,然后再查询StorageClass,显示如下。 # kubectl create -f ssd.yaml storageclass.storage.k8s.io/csi-disk-ssd
nodelocalvolume - name: nodeemptydirvolume - name: nodeCSIscheduling - name: networkresource ... 单击“保存”。 父主题: GPU虚拟化
PersistentVolumeStatus 参数 是否必选 参数类型 描述 accessModes 否 Array of strings 显示volume实际具有的访问模式。 phase 否 String PersistentVolume当前所处的状态,包括: Available
17 v1.19 v1.21 v1.23 新增beta检查项ScheduledEvent,支持通过metadata接口检测宿主机异常导致虚拟机进行冷热迁移事件。该检查项默认不开启。 0.8.10 1.16.3 v1.17 v1.19 v1.21 v1.23 新增ResolvConf配置文件检查。
"nodeemptydirvolume" }, { "name": "nodeCSIscheduling" }, { "name": "networkresource"
0为例进行演示。 如需选择其他合适的版本,请访问https://github.com/helm/helm/releases。 在连接集群的虚拟机上下载Helm客户端。 wget https://get.helm.sh/helm-v3.3.0-linux-amd64.tar.gz 解压Helm包。
0为例进行演示。 如需选择其他合适的版本,请访问https://github.com/helm/helm/releases。 在连接集群的虚拟机上下载Helm客户端。 wget https://get.helm.sh/helm-v2.17.0-linux-amd64.tar.gz 解压Helm包。
选择“系统预置规格”时,您可根据并发域名解析能力选择“小规格”、“中规格”或“大规格”,系统会根据不同的预置规格配置插件的实例数及资源配额,具体配置值请以控制台显示为准。 “小规格”最大支持50节点、500PVC规模集群;“中规格”最大支持200节点、2000PVC规模集群;“大规格”最大支持1000节点、10000PVC规模集群。
通过动态存储卷使用云硬盘 CCE支持指定存储类(StorageClass),自动创建云硬盘类型的底层存储和对应的存储卷,适用于无可用的底层存储,需要新创建的场景。 前提条件 您已经创建好一个集群,并且在该集群中安装CCE容器存储(Everest)。 如果您需要通过命令行创建,需要
orage大小保持一致。 volumeName PV的名称。 图1 弹性文件存储-共享路径 文件存储所在VPC必须与工作负载规划部署的ECS虚拟机的VPC保持一致。 创建PV。 kubectl create -f pv-sfs-example.yaml 创建PVC。 kubectl
"v1.23", "driver_init_image_version" : "2.1.30", "ecsEndpoint" : "******", "everest_image_version" : "2.1.30",