检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
none/static none 允许 CCE Standard/CCE Turbo none: 关闭工作负载实例独占 CPU 的功能,优点是 CPU 共享池的可分配核数较多 static: 开启工作负载实例独占 CPU,适用于对 CPU 缓存和调度延迟敏感的场景 kubelet管理的pod上限 kubelet管理Pod数量上限
etric_type。 步骤一:安装云原生监控插件 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”。 在“插件中心”页面右侧找到云原生监控插件,单击“安装”。 建议您关注以下配置,其他配置可按需进行设置。详情请参见云原生监控插件。 数据存储配置:必选本地数据
进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。 GPU虚拟化的优势 CCE提供的GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存
GPU视图 GPU资源指标可以衡量GPU性能和使用情况,包括GPU的利用率、温度、显存等方面的监控数据,帮助您掌控GPU运行状况。 指标说明 图1 GPU资源指标 表1 GPU图表说明 图表名称 单位 说明 集群-显存使用率 百分比 集群的显存使用率 计算公式:集群内容器显存使用总量/集群内显存总量
亲和性和独占性。用户如果直接在ECS控制台对CCE节点变更规格,会由于变更前后CPU信息不匹配,导致节点上的负载无法重新拉起,也无法创建新负载。 更多信息请参见Kubernetes控制节点上的CPU管理策略。 影响范围 开启了CPU管理策略的集群。 解决方案 登录CCE节点(弹性
CoreDNS所能提供的域名解析QPS与CPU消耗成正相关,集群中的节点/容器数量增加时,CoreDNS实例承受的压力也会同步增加。请根据集群的规模,合理调整插件实例数和容器CPU/内存配额。 表1 CoreDNS插件配额建议 节点数量 推荐配置 实例数 CPU申请值 CPU限制值 内存申请值 内存限制值 50 2500QPS
node.kubernetes.io/not-ready:节点未准备好。 node.kubernetes.io/unreachable:节点控制器访问不到节点。 node.kubernetes.io/memory-pressure:节点存在内存压力。 node.kubernetes.io
olcano插件的高级配置中进行修改,具体操作步骤如下。 登录CCE控制台,单击集群名称进入集群,在左侧选择“配置中心”。 在“调度配置”页面,选择Volcano调度器找到对应的“专家模式”,单击“开始使用”。 修改Volcano调度配置。 在nodeorder插件中,添加arg
Docker几乎支持在所有操作系统上安装,用户可以根据需要选择要安装的Docker版本。 容器镜像服务支持使用Docker 1.11.2及以上版本上传镜像。 安装Docker、构建镜像建议使用root用户进行操作,请提前获取待安装docker机器的root用户密码。 以root用户登录待安装Docker的机器。
安装插件 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到容器镜像签名验证,单击“安装”。 在安装插件页面,根据需求选择“规格配置”。 选择“系统预置规格”时,您可根据集群规模选择“小规格”或“大规格”,系统会根据不同的预置规格配置插件的实例数
相对于另外两种容器网络模式,性能存在一定的损耗(约5%-15%)。所以容器隧道网络适用于对性能要求不是特别高的业务场景,比如:Web应用、访问量不大的数据中台、后台服务等。 大规模组网:相比VPC路由网络受限于VPC路由条目配额的限制,容器隧道网络没有网络基础设施的任何限制;同时
Endpoint/apis/node.cce.io/v1/drainages {clusterid}:集群ID,可通过CCE控制台的“概览”页面查询。 Endpoint:集群所在区域的终端节点。 对应的值请参见地区和终端节点。 例如CCE服务在“华东-上海一”区域的Endpoint为“cce
31版本的增强 参考链接 新增特性及特性增强 StatefulSet起始序号(GA) 在Kubernetes 1.31中,StatefulSetStartOrdinal特性进阶至GA。默认情况下,StatefulSet中Pod的序号是从0开始,该特性引入后允许用户自定义Pod的起始序号。详细使用方式请参考起始序号。
移除内置集群角色system:csi-external-provisioner和system:csi-external-attacher。 参考链接 关于Kubernetes 1.17与其他版本的性能对比和功能演进的更多信息,请参考: Kubernetes v1.17.0 Release
NVRM,观察结果输出。 假如存在Xid(PCI:0000:00:0x): xx格式的信息,则需要收集错误码,根据Nvidia Xid Error页面中确认详细原因。然后将详细原因和错误信息,根据GPU设备所在的节点类型(ECS或BMS),联系对应的客服进行处理。 GPU虚拟化设备可用内存远小于GPU物理显存
CLOSE_WAIT 状态的空闲 conntrack 条目在 conntrack 表中保留的时间 配置建议: 不建议配置 系统中最大的连接跟踪表项数目 系统中最大的连接跟踪表项数目 参数名 取值范围 默认值 是否允许修改 作用范围 conntrack-min 大于等于0 131072 允许 CCE
纳管节点时失败,报错“安装节点失败”如何解决? 问题描述 节点纳管失败报错安装节点失败。 问题原因 登录节点,查看/var/paas/sys/log/baseagent/baseagent.log安装日志,发现如下报错: 查看节点LVM设置,发现/dev/vdb没有创建LVM逻辑卷。
离线类型。根据应用对资源质量需求的差异,在线应用可以归纳为延时敏感型LS(Latency Sensitive),通常对请求压力(QPS)或访问延迟(RT)等指标有明确的要求,对资源质量较为敏感;离线应用可以归纳为资源消耗型BE(Best Effort),通常是一些计算密集型的任务
用。 如下图: 问题定位 node节点中vg被删除或者损坏无法识别,为了避免重置的时候误格式化用户的数据盘,需要先手动恢复vg,这样重置的时候就不会去格式化其余的数据盘。 解决方案 登录节点。 重新创建PV和VG,但是创建时报错: root@host1:~# pvcreate /dev/vdb
io/share-export-location:挂载目录配置。由SFS Turbo共享路径和子目录组成,共享路径可至SFS Turbo服务页面查询,子路径由用户自定义,后续指定该StorageClass创建的PVC均位于该子目录下。 everest.io/share-volume-type:选填字段。填写SFS