检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kuiper边云协同流数据处理集成方案设计 EMQ X Kuiper是由杭州映云科技有限公司开发,用Golang 实现的轻量级物联网边缘分析、流式处理开源软件,可以运行在各类资源受限的终端设备上。Kuiper 设计的主要目标是将在云端运行的实时流式计算框架(比如 Apache Spark,Apache
应用网格提供了网关管理功能,根据路由规则就能将流量转发到对应的服务,再由服务转发到对应的后端应用实例。 创建网关 对于铂金版V3版本服务实例,创建的网关确保可以访问的前提是:必须在网关应用所在的节点上安装edgemesh-gateway插件。 服务网关在微服务实践中可以做到统一接入、流量管控、安全防护、业务
Region,通用Region指面向公共租户提供通用云服务的Region;专属Region指只承载同一类业务或只面向特定租户提供业务服务的专用Region。 可用区(AZ,Availability Zone):一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上
丰富的智能边缘应用 支持高性能边缘智能硬件 IEF提供软硬一体化解决方案,为用户提供低成本、开箱即用、云上集中运维的一站式服务,提供华为通用服务器和AI专用硬件,与昇腾芯片深度集成,提供高性能、低成本的边缘AI推理算力,支持华为鲲鹏通用中央处理器的泰山服务器。 图2 边缘硬件 云边协同 IEF
正确回滚。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点时AI加速卡配置。 虚拟化切分后的NPU类型,一个容器只能挂载一个虚拟化N
正在运行的镜像版本,并且难以正确回滚。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡:容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点。 虚拟化切分后的NPU类型,一个容器只能挂
单击“更新”。 配置流量策略 服务支持配置流量策略,即当后端存在多个应用实例时,配置服务流量转发到应用实例的策略。 登录IEF管理控制台,在“总览”页面切换实例为铂金版。 选择左侧导航栏的“应用网格 > 服务列表”,单击服务所在行的“流量策略”,如下图所示。 图5 流量策略 在弹出的窗口中选择流量策略。
正确回滚。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点时AI加速卡配置。 虚拟化切分后的NPU类型,一个容器只能挂载一个虚拟化N
正在运行的镜像版本,并且难以正确回滚。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡:容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点。 虚拟化切分后的NPU类型,一个容器只能挂
点组,以便统一化管理 × √ 多实例支持 支持多个容器应用实例 × √ 独享集群 支持独享管理面集群 × √ 应用网格 支持服务发现;应用流量治理,包括负载均衡等多种治理能力 × √ 插件管理 支持插件管理能力。 √ √ Kubernetes原生接口开放 支持通过kubectl操
描述:选填,请输入边缘节点描述信息。 标签:标签可用于对资源进行标记,方便分类管理。 AI加速卡 昇腾AI加速卡:支持昇腾处理器(即NPU)的边缘节点,请选择“昇腾AI加速卡”,然后选择NPU类型。 AI加速卡支持的NPU类型,如下表1。 表1 NPU类型说明 类型 描述 昇腾310 昇腾310芯片
Region,通用Region指面向公共租户提供通用云服务的Region;专属Region指只承载同一类业务或只面向特定租户提供业务服务的专用Region。 详情请参见区域和可用区。 可用区(AZ,Availability Zone) 一个可用区是一个或多个物理数据中心的集合,有
GPU资源调度基于GPU显存容量,调度采用GPU显存预分配方式而非实时GPU显存资源。 当应用需要使用的GPU显存资源小于单个GPU卡显存时,支持以共享方式进行资源调度,对现有GPU卡剩余资源从小到大进行排序,从中找到第一个满足资源需求的显卡进行部署。例如有三个显卡a、b、c,每个显卡显存资源是8
镜像版本:请选择需要部署的镜像版本。 容器规格:根据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡:容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点时AI加速卡配置。 虚拟化切分后的NPU类型,一个容器只能挂载一个虚拟化N
当前支持发送HTTP请求和执行命令检查,检测容器响应是否正常。 应用业务探针:应用业务探针用于探测业务是否就绪,如果业务还未就绪,就不会将流量转发到当前实例。 IEF支持HTTP请求检查和执行命令检查两种方式。 HTTP请求检查 向容器发送HTTP GET请求,如果探针收到2xx或3xx,说明容器是健康的。
当前支持发送HTTP请求和执行命令检查,检测容器响应是否正常。 应用业务探针:应用业务探针用于探测业务是否就绪,如果业务还未就绪,就不会将流量转发到当前实例。 IEF支持HTTP请求检查和执行命令检查两种方式。 HTTP请求检查 向容器发送HTTP GET请求,如果探针收到2xx或3xx,说明容器是健康的。
镜像信息 镜像版本:请选择需要部署的镜像版本。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡 容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点。 虚拟化切分后的NPU类型,一个容器只能挂
点组,以便统一化管理 × √ 多实例支持 支持多个容器应用实例 × √ 独享集群 支持独享管理面集群 × √ 应用网格 支持服务发现;应用流量治理,包括负载均衡等多种治理能力 × √ 插件管理 支持插件管理能力。 √ √ Kubernetes原生接口开放 支持通过kubectl操
就能将流量转发到对应的服务,再由服务转发到对应的后端应用实例。 图1 网关流量转发路径示意图 IEF 基于 KubeEdge 生态构建,将云原生容器化应用程序编排能力延伸到了边缘。但是,在边缘计算场景下,网络拓扑较为复杂,不同区域中的边缘节点往往网络不互通,并且应用之间流量的互通是业务的首要需求,IEF
选择左侧导航栏的“边缘资源 > 边缘节点”,单击页面右上角的“注册边缘节点”。 配置边缘节点基本信息。 如图1所示,填写边缘节点的名称,AI加速卡选择“Nvidia GPU”,不绑定终端设备。 图1 基本配置 如图2所示,为节点配置系统日志和应用日志。您可以自行选择是否开启云端日志(开启后,可在AOM服务中查看日志)。