弹性调度 Volcano为应用的扩缩容提供优先级调度能力。 表1 弹性调度 功能 描述 应用扩缩容优先级策略 通过应用扩缩容优先级策略,您可以精确控制Pod在不同类型节点上的扩容与缩容顺序,从而实现资源管理的最优化。
分析应用 应用在容器化改造前,您需要了解自身应用的运行环境、依赖包等,并且熟悉应用的部署形态。需要了解的内容如表1。 表1 了解应用环境 类别 子类 说明 运行环境 操作系统 应用需要运行在什么操作系统上,比如centos或者Ubuntu。
图1 上传模板包 由于上传模板时创建OBS桶的命名规则由cce-charts-{region}-{domain_name}变为cce-charts-{region}-{domain_id},其中旧命名规则中的domain_name系统会做base64转化并取前63位,如果您在现有命名规则的
AI数据加速 AI数据加速引擎插件提供数据集抽象、数据编排和应用编排等能力,旨在通过透明的数据管理和优化调度,帮助AI和大数据应用高效利用任何存储的数据,而无需修改现有应用。 插件 描述 AI数据加速引擎插件 该插件作为数据加速引擎,通过声明式API实现数据缓存的自动化管理。
部署 同一个节点上部署多个应用时,当未设置资源上下限的应用出现应用异常资源泄露问题时,将会导致其它应用分配不到资源而异常,且应用监控信息会出现误差。
curl --location 'https://{endpoint}/v1/models' \ --header 'Content-Type: application/json' \ --data '{ "name": "DeepSeek-R1-Distill-Qwen-
AI服务部署 AI推理框架插件 AI推理网关插件 LeaderWorkerSet插件 kagent插件 父主题: 云原生AI
AI推理网关插件 随着大规模语言模型(LLM)及人工智能(AI)推理服务的迅猛发展,云原生AI团队面临着愈加复杂的推理流量治理难题。
容器应用管理 应用场景 CCE集群支持管理X86和ARM资源,能够轻松创建Kubernetes集群、部署容器化应用,并方便地进行管理和维护。
组件说明 表1 AI数据加速引擎插件组件 容器组件 说明 资源类型 application-controller 负责使用数据集的应用Pod的调度和运行。通过Runtime获取缓存信息,将使用数据集的Pod优先调度到具有数据缓存的节点。
AI任务管理 Kubeflow插件 Kuberay 父主题: 云原生AI
AI数据加速 Fluid数据加速引擎概述 AI数据加速引擎插件 父主题: 云原生AI
本例应用简介 本例“企业管理应用”由某企业(简称A企业)开发,这款应用提供给不同的第三方企业客户,第三方客户仅需要使用应用,维护工作由A企业提供。
云原生AI 云原生AI套件概述 AI负载调度 AI任务管理 AI数据加速 AI服务部署
nginx template: metadata: labels: app: nginx spec: containers: - name: container-0 image: nginx
表1 应用容器化改造方式 应用容器化改造方式 优点 缺点 方式一: 单体应用整体容器化 业务0修改:应用架构和代码不需要做任何改动。 提升部署和升级效率:应用可构建为容器镜像,确保应用环境一致性,提升部署效率。 降低资源成本:容器对系统资源利用率高。
约束与限制 集群中使用“AI加速型”节点时必须安装CCE AI套件(Ascend NPU)插件。 “AI加速型”节点迁移后会重置节点。
每个节点都包含运行Pod所需要的基本组件,包括Kubelet、Kube-proxy 和Container Runtime等。在云容器引擎CCE中,主要采用高性能的弹性云服务器ECS或裸金属服务器BMS作为节点来构建高可用的Kubernetes集群。
初始延迟之前的就绪态的状态值默认为 Failure。 如果容器不提供就绪态探针,则默认状态为 Success。 启动探针 参数名 取值范围 默认值 是否允许修改 作用范围 StartupProbe 无 无 允许 - 指示容器中的应用是否已经启动。
Fluid数据加速引擎概述 Fluid是云原生领域的一款分布式数据集编排与加速引擎,专为大数据和AI应用设计。它旨在通过透明的数据管理和优化调度,帮助AI和大数据应用高效利用任何存储的数据,而无需修改现有应用。
您即将访问非华为云网站,请注意账号财产安全