检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点本地域名解析加速(node-local-dns)是基于社区NodeLocal DNSCache提供的插件,通过在集群节点上作为守护程序集运行DNS缓存代理,提高集群DNS性能。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 否 object 插件基础配置参数,无需指定。 flavor
节点本地域名解析加速(原名node-local-dns)是基于社区NodeLocal DNSCache提供的插件,通过在集群节点上作为守护程序集运行DNS缓存代理,提高集群DNS性能。 开源社区地址:https://github.com/kubernetes/dns 启用NodeLocal DNSCach
作Docker镜像? 拉取镜像加速 由于运营商网络问题可能导致公共镜像仓库中的镜像拉取速度缓慢,您可将常用的镜像上传至容器镜像服务SWR,提高镜像拉取速度。 相关说明 容器镜像服务(Software Repository for Container,SWR)是一种支持容器镜像全生命周期管理的服务,
调整各权重值。 希望重点提高集群CPU资源利用率,减少CPU资源碎片,可以将binpack.cpu权重值提高为10 希望提高集群GPU资源利用率,减少GPU碎片,可以通过binpack.resources添加自定义资源(GPU),并设定权重值为10 提高binpack插件的打分权
通常情况下,用户的集群数量不止一个,例如生产集群、测试集群、开发集群等。如果在每个集群安装Prometheus监控集群里的业务各项指标的话,很大程度上提高了维护成本和资源成本,同时数据也不方便汇聚到一块查看,这时候可以通过部署一套Prometheus,对接监控多个集群的指标信息。 方案架构
集群管理最佳实践 本文将为您介绍与集群相关的最佳实践,包括集群规划、创建、管理和维护等方面,帮助您优化集群的性能、提高可靠性和安全性,从而更好地满足业务需求。 场景分类 相关最佳实践 创建集群实践 CCE集群选型建议 集群网络地址段规划实践 集群网络模型选择及各模型区别 通过CCE搭建IPv4/IPv6双栈集群
Buffer作为其接口定义语言(IDL)以及底层消息交换格式。同时GRPC采用HTTP/2标准协议实现,提供了多路复用、头部压缩、流控等特性,极大地提高了客户端与服务端的通信效率。更多信息参见Introduction to gRPC。 图1 gRPC示意图 在gRPC中,客户端应用程序可以
成一个整体系统。NUMA节点能够通过提供更快的本地内存访问来提高系统性能,但通常一个Node节点是多个NUMA节点的集合,在多个NUMA节点之间进行内存访问时会产生延迟,开发者可以通过优化任务调度和内存分配策略,来提高内存访问效率和整体性能。 在云原生环境中,对于高性能计算(HP
拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。 GPU虚拟化的优势 CCE提供的GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存大小,算力分配粒度为5%GPU,显存分配粒度达MiB级别。
工作负载亲和/反亲和调度是Kubernetes提供的任务调度方式,可以使用工作负载作为亲和对象,灵活地将新建的工作负载调度到与其相关或无关的节点上,可以有效地提高集群的利用率。 例如,通信频繁的前端应用Pod和后端应用Pod可优先调度到同一个节点或同一个可用区,减少网络延迟。工作负载亲和/反亲和的示意如下:
动力。大量交付实践表明,不仅传统企业,甚至互联网企业都可能在持续集成方面存在研发效率低、工具落后、发布频率低等方面的问题,需要通过持续交付提高效率,降低发布风险。 价值 云容器引擎搭配容器镜像服务提供DevOps持续交付能力,能够基于代码源自动完成代码编译、镜像构建、灰度发布、容
拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。 GPU虚拟化 NPU调度 CCE为集群中的NPU异构资源提供调度能力,实现快速高效地处理推理和图像识别等工作。 功能 描述
表1 装箱策略权重配置 名称 说明 默认值 装箱调度策略权重 增大该权重值,可提高装箱策略在整体调度中的影响力。 10 CPU权重 增大该权重值,优先提高集群CPU利用率。 1 内存权重 增大该权重值,优先提高集群Memory利用率。 1 自定义资源类型 指定Pod请求的其他自定义资源类型,例如nvidia
CPU权重 增大该权重值,优先提高集群CPU利用率。 1 内存权重 增大该权重值,优先提高集群Memory利用率。 1 自定义资源类型 指定Pod请求的其他自定义资源类型,例如nvidia.com/gpu。增大该权重值,优先提高指定资源的利用率。 - 负载感知调度(Usage) 负
弹性与慢速的容器网卡创建绑定的差异,严重影响了大规模批创场景下的容器启动速度。因此,云原生2.0网络提供了容器网卡动态预热的能力,在尽可能提高IP的资源利用率的前提下,尽可能加快Pod的启动速度。 约束与限制 CCE Turbo的1.19.16-r4、1.21.7-r0、1.23
拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。详情请参见GPU虚拟化概述。 集群默认驱动:集群中GPU节点默认使用的GPU驱动版本。如果选择“自定义驱动链接地址”,则需填
通过Nginx Ingress对多个应用进行弹性伸缩 在实际的生产环境中,应用多实例部署可以提高应用的稳定性和可靠性,但也会增加资源的浪费和成本。因此,在进行多实例部署时,需要权衡资源利用率和应用性能之间的平衡,但手动调节实例数量存在伸缩不及时的问题,难以达到最佳的效果。 如果该应用使用Nginx
装箱调度(Binpack)。 配置建议如下: 优先减少集群中的CPU资源碎片:建议提高binpack策略中的CPU权重为5,Memory权重保持为1。 优先减少集群中的Memory资源碎片:建议提高binpack策略中的Memory权重为5,CPU权重保持为1。 优先减少集群中的
Resource Fairness)是主资源公平调度策略,应用于大批量提交AI训练和大数据作业的场景,可增强集群业务的吞吐量,整体缩短业务执行时间,提高训练性能。 前提条件 已创建v1.19及以上版本的集群,详情请参见购买Standard/Turbo集群。 已安装Volcano插件,详情请参见Volcano调度器。
它允许开发者在最终推送到容器注册表的镜像中仅包含必需的组件,排除了构建工具和其他非必要二进制文件。这种方法可以显著减少镜像的攻击面,从而提高整体安全态势。 为了充分利用多阶段构建的优势,建议参考Docker官方文档,深入了解其概念和最佳实践。这将帮助您创建更精简、更安全的容器镜像,同时优化开发和部署流程。