检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
建议请参见设置容器规格。 GPU配额(可选) 当集群中包含GPU节点时,才能设置GPU配额,且集群中需安装CCE AI套件(NVIDIA GPU)插件。 不使用:表示不使用GPU。 GPU 整卡:单个容器独享GPU。 GPU 虚拟化:容器需要使用的GPU百分比,例如设置为10%,表示该容器需使用GPU资源的10%。
建议请参见设置容器规格。 GPU配额(可选) 当集群中包含GPU节点时,才能设置GPU配额,且集群中需安装CCE AI套件(NVIDIA GPU)插件。 不使用:表示不使用GPU。 GPU 整卡:单个容器独享GPU。 GPU 虚拟化:容器需要使用的GPU百分比,例如设置为10%,表示该容器需使用GPU资源的10%。
Ingress控制器插件升级检查异常处理 云原生监控插件升级检查异常处理 Containerd Pod重启风险检查异常处理 GPU插件关键参数检查异常处理 GPU/NPU Pod重建风险检查异常处理 ELB监听器访问控制配置项检查异常处理 Master节点规格检查异常处理 Master节点子网配额检查异常处理
导致业务Pod被驱逐重建。 容器调度与弹性插件 插件名称 插件简介 Volcano调度器 Volcano调度器提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户。 CCE集群弹性引擎 集群
道网络把广播域控制到了节点级别,容器隧道网络最大可支持2000节点规模。 性能要求较高:由于没有额外的隧道封装,相比于容器隧道网络模式,VPC网络模型集群的容器网络性能接近于VPC网络性能,所以适用于对性能要求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VP
e7、e6、e3 磁盘增强型 d7、d6、d6nl、d2、d3 超高I/O型 i7、i7n、i3、ir7、ir7n、ir3 高性能计算型 h3、hc2 GPU加速型 pi2、pi1 p2s、p2v、p2vs、p1 g6、g5、g6v AI加速型 ai1s、ai1 Flexus云服务器X
要有哪些? 如何配置Pod使用GPU节点的加速能力? 容器使用SCSI类型云硬盘偶现IO卡住如何解决? docker审计日志量过大影响磁盘IO如何解决? thinpool磁盘空间耗尽导致容器或节点异常时,如何解决? CCE节点上监听的端口列表 GPU节点使用nvidia驱动启动容器排查思路
管理操作。 配置管理 为方便对CCE集群中的Kubernetes配置参数进行管理,CCE提供了配置管理功能,通过该功能您可以对核心组件进行深度配置,更多信息请参见kubelet。 仅支持在v1.15及以上版本的集群中对节点池进行配置,v1.15以下版本不显示该功能。 登录CCE控制台。
50 检查集群管理平面网段是否与主干配置一致 检查集群管理平面网段是否与主干配置一致。 51 GPU插件检查异常处理 检查到本次升级涉及GPU插件,可能影响新建GPU节点时GPU驱动的安装。 52 节点系统参数检查异常处理 检查您节点上默认系统参数是否被修改。 53 残留packageversion检查异常处理
eBPF将Service地址直接解析为Service后端某个Pod的地址。 性能优化 Pod或Node访问Service采用eBPF绕过节点上的iptables或者ipvs转发,请求延迟大幅降低。网络性能在大规模集群中受到的影响更小,扩展性更优。 Bandwidth Egress采用EDT(Earliest
云原生网络2.0模型说明 云原生网络2.0模型 云原生网络2.0是自研的新一代容器网络模型,深度整合了虚拟私有云VPC的弹性网卡(Elastic Network Interface,简称ENI)和辅助弹性网卡(Sub Network Interface,简称Sub-ENI)的能力
"name": "cce-gpu-topology-predicate" }, { "name": "cce-gpu-topology-priority"
生产事件。 面对以上的种种不足,CCE提供了简单的集群管理能力和灵活的弹性放缩能力,深度集成应用服务网格和Helm标准模板,能够有效帮助企业简化集群运维管理方式,降低运营成本,以简单易用、高性能、安全可靠、开放兼容等诸多优点,获取了大量企业用户的青睐。因此很多企业选择将自建集群全
ER)可以连接虚拟私有云(Virtual Private Cloud, VPC)或本地网络来构建中心辐射型组网,实现同区域的VPC互通,是云上大规格、高带宽、高性能的集中路由器。借助企业路由器的能力,可以实现不同VPC下CCE集群互通。 通过ER连接对端VPC,可以解决不同VPC下的集群创建容器之后短
本地持久卷、文件存储类型(SFS)、极速文件存储(SFS Turbo)。 节点成本按照CPU、内存进行成本拆分,暂不支持GPU、NPU等异构资源的拆分。如GPU类型的节点在拆分时,会出现CPU核时单价偏高。 开通成本洞察后需要等待2天时间,才能显示分析结果。 成本洞察以天为粒度呈现成本分析结果。
rce ip_type或者not ipvlan but in own host日志,导致影响节点VNC界面使用体验及高负载场景下的容器网络性能。现象如下: 排查方法 1、快速排查方法 适用于节点为按需计费类型,若您的节点为该类型,可从cce-console上查看节点创建时间,20
cal-dns)是基于社区NodeLocal DNSCache提供的插件,通过在集群节点上作为守护程序集运行DNS缓存代理,提高集群DNS性能。 开源社区地址:https://github.com/kubernetes/dns 启用NodeLocal DNSCache之后,DNS查询所遵循的路径如下图所示。
Ingress 产品定位 七层流量治理,提供丰富的高级路由功能。 七层流量治理,提供丰富的高级路由功能。与云原生深度集成,提供高可用、高性能、超安全、多协议的全托管免运维负载均衡服务。 具备弹性能力,流量突发时支持扩展计算资源。 同时支持千万级并发连接,百万级新建连接。 基础路由 基于内容、源IP的路由。
集群管理最佳实践 本文将为您介绍与集群相关的最佳实践,包括集群规划、创建、管理和维护等方面,帮助您优化集群的性能、提高可靠性和安全性,从而更好地满足业务需求。 场景分类 相关最佳实践 创建集群实践 CCE集群选型建议 集群网络地址段规划实践 集群网络模型选择及各模型区别 通过CCE搭建IPv4/IPv6双栈集群
隧道传输。 VPC网络:VPC网络采用VPC路由方式与底层网络深度整合,适用于高性能场景,节点数量受限于虚拟私有云VPC的路由配额。每个节点将会被分配固定大小的IP地址段。VPC网络由于没有隧道封装的消耗,容器网络性能相对于容器隧道网络有一定优势。VPC网络集群由于VPC路由中配