已找到以下 64 条记录
AI智能搜索
产品选择
云容器引擎 CCE
没有找到结果,请重新输入
产品选择
云容器引擎 CCE
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 调度概述 - 云容器引擎 CCE

    小于1的数量,实现多个Pod共享使用GPU。 使用Kubernetes默认GPU调度 GPU虚拟化 GPU虚拟化能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由

  • 使用Kubeflow和Volcano实现典型AI训练任务 - 云容器引擎 CCE

    Volcano是一款构建于Kubernetes之上的增强型高性能计算任务批量处理系统。作为一个面向高性能计算场景的平台,它弥补了Kubernetes在机器学习、深度学习、HPC、大数据计算等场景下的基本能力缺失,其中包括gang-schedule的调度能力、计算任务队列管理、task-topology和

  • Volcano调度器 - 云容器引擎 CCE

    Volcano调度器 插件简介 Volcano是一个基于Kubernetes的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性。 Volcano提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管

  • Volcano调度器 - 云容器引擎 CCE

    Volcano调度器 插件介绍 Volcano 是一个基于 Kubernetes 的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要的而 Kubernetes 当下缺失的一系列特性。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic

  • Volcano调度概述 - 云容器引擎 CCE

    Volcano调度概述 Volcano是一个基于Kubernetes的批处理平台,提供了机器学习、深度学习、生物信息学、基因组学及其他大数据应用所需要而Kubernetes当前缺失的一系列特性,提供了高性能任务调度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力。 Volcano

  • 什么是云容器引擎 - 云容器引擎 CCE

    性进行维护,并根据CPU和内存资源用量按需付费。 使用场景 - 面向有云原生数字化转型诉求的用户,期望通过容器集群管理应用,获得灵活弹性的算力资源,简化对计算、网络、存储的资源管理复杂度。 适合对极致性能、资源利用率提升和全场景覆盖有更高诉求的客户。 适合具有明显的波峰波谷特征的

  • 高性能调度 - 云容器引擎 CCE

    方便灵活地进行定制化开发。 应用场景4:高精度资源调度 Volcano 在支持AI,大数据等作业的时候提供了高精度的资源调度策略,例如在深度学习场景下计算效率非常重要。以TensorFlow计算为例,配置“ps”和“worker”之间的亲和性,以及“ps”与“ps”之间的反亲和性

  • 云原生观测体系概述 - 云容器引擎 CCE

    可观测性生态有一个全面的认识。 图1 可观测性体系 从架构分层的角度,CCE可观测性分为四个层次。自下而上分别为:算力底座、数据采集、监控与日志、云原生观测。 算力底座 云容器引擎CCE支持多种类型的集群创建,包括CCE Turbo集群与CCE Standard集群,以满足您各种

  • 弹性伸缩概述 - 云容器引擎 CCE

    Kubernetes社区开源组件,用于节点水平伸缩,CCE在其基础上提供了独有的调度、弹性优化、成本优化的功能。 全场景支持,适合在线业务、深度学习、大规模成本算力交付等。 节点自动伸缩 CCE突发弹性引擎(对接CCI) 将Kubernetes API扩展到无服务器的容器平台(如CCI),无需关心节点资源。

  • GPU视图 - 云容器引擎 CCE

    计算公式:集群内容器显存使用总量/集群内显存总量 集群-算力使用率 百分比 集群的算力使用率 计算公式:集群内容器算力使用总量/集群内算力总量 节点-显存使用量 字节 每个节点的显存使用量 节点-算力使用率 百分比 每个节点的算力使用率 计算公式:节点上容器算力使用总量/节点上算力总量 节点-显存使用率 百分比

  • 使用GPU虚拟化 - 云容器引擎 CCE

    显存:显存值单位为MiB,需为正整数,且为128的倍数。若配置的显存超过单张GPU卡的显存,将会出现无法调度状况。 算力算力值单位为%,需为5的倍数,且最大不超过100。 当显存设置为单张GPU卡的容量上限或算力设置为100%时,将会使用整张GPU卡。 使用GPU虚拟化时,工作负载调度器将默认指定为Volcano且不可更改。

  • 节点池概述 - 云容器引擎 CCE

    节点池概述 简介 为帮助您更好地管理Kubernetes集群内的节点,云容器引擎CCE引入节点池概念。节点池是集群中具有相同配置的一组节点,一个节点池包含一个节点或多个节点。 您可以在CCE控制台创建新的自定义节点池,借助节点池基本功能方便快捷地创建、管理和销毁节点,而不会影响整

  • GPU虚拟化概述 - 云容器引擎 CCE

    GPU虚拟化的优势 CCE提供的GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存大小,算力分配粒度为5%GPU,显存分配粒度达MiB级别。 隔离:支持显存和算力的严格隔离,支持单显存隔离,算力与显存同时隔离两类场景。 兼容:业务无需重新编译,无需进行CUDA库替换,对业务无感。

  • 使用ASM实现灰度发布和蓝绿发布 - 云容器引擎 CCE

    使用ASM实现灰度发布和蓝绿发布 应用服务网格(Application Service Mesh,简称ASM)是基于开源Istio推出的服务网格平台,它深度、无缝对接了企业级Kubernetes集群服务云容器引擎(CCE),在易用性、可靠性、可视化等方面进行了一系列增强,可为客户提供开箱即用的上手体验。

  • XGPU视图 - 云容器引擎 CCE

    GPU卡-XGPU设备算力使用率 百分比 每张GPU卡的GPU虚拟化设备的算力使用率 计算公式:显卡上所有XGPU设备当前所使用的算力之和 / 显卡算力总量 GPU卡-XGPU设备数量 个 每张GPU卡的GPU虚拟设备的数量 GPU卡-调度策略 数字 0为显存隔离算力共享模式 1为显存算力隔离模式

  • 准备GPU虚拟化资源 - 云容器引擎 CCE

    准备GPU虚拟化资源 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。本文介绍如何在GPU节点上实现GPU的调度和隔离能力。 前提条件 配置 支持版本 集群版本 v1.23.8-r0、v1.25

  • 设置节点亲和调度(nodeAffinity) - 云容器引擎 CCE

    ) Kubernetes在调度工作负载时支持将节点作为亲和对象,将工作负载调度至具有指定标签和标签值的节点上。例如,某些节点支持使用GPU算力,则可以使用节点亲和调度,确保高性能计算的Pod最终运行在GPU节点上。 配置节点亲和调度策略 您可以通过不同的方式配置节点亲和性调度策略,将Pod调度到满足条件的节点。

  • 容器resource资源 - 云容器引擎 CCE

    虚拟化GPU显存资源,若配置limit和request相同,可独立配置 GPU虚拟化资源:算力 参数名 取值范围 默认值 是否允许修改 作用范围 volcano.sh/gpu-core.percentage 1-100且为5的倍数 无 允许 - 虚拟化GPU算力资源,若配置limit和request相同,必须同时配置虚拟化GPU显存资源

  • 功能总览 - 云容器引擎 CCE

    Autopilot集群弹性伸缩 应用调度 CCE Standard集群、CCE Turbo集群支持 CCE基于Volcano调度器提供多元算力资源调度及任务调度的能力,面向机器学习、深度学习、生物信息学、基因组学及其他大数据应用场景提供完整的应用调度特性。 CCE支持CPU资源调度、GPU/NPU异构资源调度、在离线作业混合部署、CPU

  • 异构资源配置 - 云容器引擎 CCE

    异构资源配置 GPU配置 GPU虚拟化:CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU