检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Turbo集群支持共享VPC特性。 使用共享VPC创建的集群不支持使用共享ELB及NAT网关功能。 使用共享VPC创建的集群暂不支持文件存储、对象存储和极速文件存储。 如果当前共享VPC下已创建CCE Turbo集群,则共享VPC的所有者不应删除该共享,否则将会导致CCE Turbo集群功能异常。
优先选择优先级最高的节点池。 规格优先级选择: 如果存在多个节点池优先级最高的情况,则根据以下原则挑选优先级最高的规格: 首先,选择节点池中优先级最高的规格。 其次,如果存在规格优先级相同的情况,根据最小浪费原则,选择既能满足Pod正常调度、浪费资源又最少的规格。 最后,如果存
本文将为您介绍与节点池管理相关的最佳实践,包括节点池创建、管理和弹性伸缩等方面,从而更好地满足业务需求。 场景分类 相关最佳实践 创建节点池相关实践 制作CCE节点自定义镜像 创建节点时执行安装前/后脚本 创建节点时使用OBS桶实现自定义脚本注入 选择合适的节点数据盘大小 节点池日常管理实践
Service,DSS)可以为您提供独享的物理存储资源,通过数据冗余和缓存加速等多项技术,提供高可用性和持久性,以及稳定的低时延性能。CCE支持将使用DSS创建的存储卷挂载到容器。 专属存储性能规格 存储池性能的主要指标有IO读写延时、IOPS和吞吐量。 IOPS:每秒进行读写的操作次数。 吞吐量:
多个维度的集群成本开销和资源使用状况,进而识别可优化的应用。 成本洞察关键能力 丰富的容器成本覆盖范围:支持成本分析的费用包括CCE集群管理费用、CCE集群关联的ECS和EVS资源费用。 基于计费账单的精准成本计算:使用真实账单进行成本分摊计算,精准统计集群成本。 灵活的成本分摊
ECS)已绑定弹性公网IP。 只有运行中的弹性云服务器才允许用户登录。 Linux操作系统用户名为root。 登录方式 登录节点(弹性云服务器 ECS)的方式有如下两种: 管理控制台远程登录(VNC方式) 未绑定弹性公网IP的弹性云服务器可通过管理控制台提供的远程登录方式直接登录。 详细操
metadata是节点对象的元数据定义,是集合类的元素类型,包含一组由不同名称定义的属性。 spec 是 NodeSpec object spec是集合类的元素类型,用户对需要管理的节点对象进行详细描述的主体部分都在spec中给出。系统通过spec的描述来创建或更新对象。 表5 NodeMetadata
告警方式:选择“直接告警”。 行动规则:选择创建行动规则步骤中创建的行动规则。 其余参数可按需求配置。 本示例中的设置的告警为: 当集群中存在节点状态异常时,CCE会上报“节点状态异常”的事件到AOM,AOM根据设置的告警规则,立即触发告警通知,并根据行动规则,通过SMN通知您。 图1
批量添加指定集群的资源标签 功能介绍 该API用于批量添加指定集群的资源标签。 每个集群支持最多20个资源标签。 此接口为幂等接口:创建时,如果创建的标签已经存在(key/value均相同视为重复),默认处理成功;key相同,value不同时会覆盖原有标签。 调用方法 请参见如何调用API。
先级任务,即在线作业。 Pod的入口带宽 参数名 取值范围 默认值 是否允许修改 作用范围 annotations["kubernetes.io/ingress-bandwidth"] 1M-4.29G 无 允许 - Pod的入口带宽限制 Pod的出口带宽 参数名 取值范围 默认值
mory权重保持为1。 如何使节点CPU、内存的真实负载趋于均衡 工作负载运行过程中,真实消耗的CPU和内存存在大的波动,通过工作负载request资源无法准确评估的场景中,希望调度器可以结合集群内节点CPU、内存的负载情况,将Pod优先调度到负载较低的节点,实现节点负载均衡,避
该API用于获取任务信息。通过某一任务请求下发后返回的jobID来查询指定任务的进度。 集群管理的URL格式为:https://Endpoint/uri。其中uri为资源路径,也即API访问的路径 该接口通常使用场景为: 创建、删除集群时,查询相应任务的进度。 创建、删除节点时,查询相应任务的进度。 调用方法 请参见如何调用API。
用于服务账户令牌的身份验证组件,会验证API请求中使用的令牌是否指定了合法的受众。 配置建议:根据集群服务间通信的需求,精确配置受众列表。此举确保服务账户令牌仅在授权的服务间进行认证使用,提升安全性。 说明: 不正确的配置可能导致服务间认证通信失败,或令牌的验证过程出现错误。 v1
在实际业务中,经常会遇到将集群稀缺资源分配给多个用户的情况,每个用户获得资源的权利都相同,但是需求数却可能不同,如何公平的将资源分配给每个用户是一项非常有意义的事情。调度层面有一种常用的方法为最大最小化公平分配算法(max-min fairness share),尽量满足用户中的最小的需求,然后将剩余的资源公平分配给剩下的用户。形式化定义如下:
其中调度器判定节点资源不足的计算方式为: 集群节点CPU资源不足的判定方式:当前Pod请求的CPU资源总量>(节点可分配的CPU资源总量-节点已分配的CPU资源总量) 集群节点内存资源不足的判定方式:当前Pod请求的内存资源总量>(节点可分配的内存资源总量-节点已分配的内存资源总量) 集
原生Kubernetes调度器只能基于资源的申请值进行调度,然而Pod的真实资源使用率,往往与其所申请资源的Request/Limit差异很大,这直接导致了集群负载不均的问题: 集群中的部分节点,资源的真实使用率远低于资源申请值的分配率,却没有被调度更多的Pod,这造成了比较大的资源浪费。 集群中的另外一些节点
网桥会负责将所有非本地地址的流量进行转发。因此,同一节点上的Pod可以直接通信。 不同节点上的Pod通信 Kubernetes要求集群Pod的地址唯一,因此集群中的每个节点都会分配一个子网,以保证Pod的IP地址在整个集群内部不会重复。在不同节点上运行的Pod通过IP地址互相访问
集群原名:修改集群名称后显示的集群原名,设置其他集群的名称时和该集群的原名同样不可以重复。 集群状态:当前集群的运行状态,详情请参见集群生命周期。 集群类别:显示当前集群为CCE Standard集群或CCE Turbo集群,两者差异请参见集群类型对比。 集群创建时间:显示集群创建的时间,CCE以该时间作为计费依据。
AI套件(NVIDIA GPU)插件配置节点的驱动文件路径,节点重启后会自动安装驱动。您也可以手动更新驱动的方式进行更新。 手动更新GPU节点的驱动版本为临时方案,适用于需要对某个节点进行差异化配置的场景,但节点重启后将自动重置为GPU插件配置中指定的版本。 如果需要稳定升级GPU节点驱
问题现象 在CCE集群的GPU节点上部署服务出现如下问题: 容器无法查看显存。 部署了7个GPU服务,有2个是能正常访问的,其他启动时都有报错。 2个是能正常访问的CUDA版本分别是10.1和10.0 其他服务CUDA版本也在这2个范围内 在GPU服务容器中发现一些新增的文件core.*,在以前的部署中没有出现过。