集群类型对比 集群类型对比 CCE支持多种类型的集群创建,以满足您各种业务需求,如下为集群类型之间的区别,可帮助您选择合适的集群: 集群类型 CCE Standard CCE Turbo CCE Autopilot 产品定位 标准版本集群,提供高可靠、安全的商业级容器集群服务。 面向云原生2
Container Runtime等不兼容,继而导致驱动安装失败或者CCE AI套件(NVIDIA GPU)插件异常。对于使用自定义GPU驱动的场景,请您自行验证。 安装插件 登录CCE控制台,单击集群名称进入集群,在左侧导航栏中选择“插件中心”,在右侧找到CCE AI套件(NVIDIA
CCE AI套件(Ascend NPU) 插件简介 CCE AI套件(Ascend NPU)是支持容器里使用huawei NPU设备的管理插件。 安装本插件后,可创建“AI加速型”节点,实现快速高效地处理推理和图像识别等工作。 约束与限制 集群中使用“AI加速型”节点时必须安装CCE
CCE AI套件(NVIDIA GPU) 插件介绍 CCE AI套件(NVIDIA GPU)插件是支持在容器中使用GPU显卡的设备管理插件,集群中使用GPU节点时必须安装本插件。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 是 object 插件基础配置参数。
CCE AI套件(Ascend NPU) 插件介绍 CCE AI套件(Ascend NPU)是支持容器里使用NPU设备的管理插件。 安装本插件后,可创建“AI加速型”节点,实现快速高效地处理推理和图像识别等工作。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic
优先级对该工作负载中的Pod进行打分,并根据分值决定Pod删除顺序。 例如,默认情况下,包周期节点的优先级高于按需计费的节点。在扩容时,Pod将被优先调度到包周期的节点,其次被调度到按需计费的节点。在缩容过程中,系统将优先删除按需计费节点上满足条件的Pod,其次删除包周期节点上满足条件的Pod。
AI服务部署 AI推理框架插件 AI推理网关插件 LeaderWorkerSet插件 kagent插件 父主题: 云原生AI
因此容器Core Dump需要将Core文件持久化存储在主机或云存储上。本文将介绍容器Core Dump的方法。 约束与限制 容器Core Dump持久化存储至OBS(并行文件系统或对象桶)时,由于CCE挂载OBS时默认挂载参数中带有umask=0的设置,这导致Core Dump
AI数据加速 Fluid数据加速引擎概述 AI数据加速引擎插件 父主题: 云原生AI
云原生AI套件概述 云原生AI套件以华为云CCE服务为基础,为您提供开箱即用的AI训练与推理全流程的解决方案,涵盖AI资源管理、AI负载调度、AI任务管理、AI数据加速及AI服务部署等服务,提供端到端的全栈支持与优化。 图1 云原生AI套件架构图 AI资源管理 CCE AI套件(NVIDIA
AI任务管理 Kubeflow插件 Kuberay 父主题: 云原生AI
云原生AI 云原生AI套件概述 AI负载调度 AI任务管理 AI数据加速 AI服务部署
云原生AI插件 CCE AI套件(NVIDIA GPU) CCE AI套件(Ascend NPU) 父主题: 插件
CCE AI套件(NVIDIA GPU)版本发布记录 CCE会定期发布CCE AI套件(NVIDIA GPU)插件新版本,进行特性更新、性能优化和BUG修复,以提升用户体验和系统稳定性。为了方便您能够体验最新功能、规避已知漏洞或问题,并保障业务的安全性和可靠性,建议定期升级至最新版本的CCE
则默认状态为 Success。 就绪探针 参数名 取值范围 默认值 是否允许修改 作用范围 ReadinessProbe 无 无 允许 - 指示容器是否准备好为请求提供服务。如果就绪态探测失败, 端点控制器将从与 Pod 匹配的所有服务的端点列表中删除该 Pod 的 IP 地址。
CCE AI套件(Ascend NPU)版本发布记录 CCE会定期发布CCE AI套件(Ascend NPU)插件新版本,进行特性更新、性能优化和BUG修复,以提升用户体验和系统稳定性。为了方便您能够体验最新功能、规避已知漏洞或问题,并保障业务的安全性和可靠性,建议定期升级至最新版本的CCE
Pod、PV以及PVC应自动创建,但FUSE Pod默认为懒启动模式,将随业务Pod一同创建。 创建业务Pod,直接使用自动创建的PVC和PV FUSE Pod将随业务Pod一同创建,其内部数据将通过PVC形式供业务Pod使用。 创建OBS桶,用于存储业务数据。 登录OBS管理控制台,在左侧导航栏中选择“桶列表”。
AI推理网关插件 随着大规模语言模型(LLM)及人工智能(AI)推理服务的迅猛发展,云原生AI团队面临着愈加复杂的推理流量治理难题。在AI推理应用场景中,除了传统的基于HTTP路径和协议的流量路由外,还需根据“模型名称”、“推理优先级”以及“模型版本”等AI业务属性,灵活地进行流
AI推理框架插件 插件简介 AI推理框架插件是一款面向AI模型全生命周期管理的云原生插件,支持用户通过声明式API自定义注册、部署及调度AI大模型,并高效执行推理任务。 该特性当前正处于上线阶段,已发布区域请以控制台实际为准。 前提条件 已创建v1.28及以上版本的CCE Sta
您可以执行以下步骤确认CCE AI套件(NVIDIA GPU)插件的升级目标版本与当前驱动配置。 登录CCE控制台,前往“插件中心”处查看CCE AI套件(NVIDIA GPU)插件。 单击该插件的“升级”按钮,查看插件目标版本及驱动版本。 在测试环境验证安装升级目标版本的CCE AI套件(NVIDIA
您即将访问非华为云网站,请注意账号财产安全