检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置项管理 创建配置项 查询配置项列表 更新配置项 查询配置项详情 删除配置项 父主题: API
“注册”。 通过证书注册。下载配置文件和边缘节点安装工具,在后续纳管边缘节点时将用到这些。 图3 下载配置文件和边缘核心软件 根据页面提示,单击“下载 边缘节点名称.tar.gz 配置文件”下载配置文件。 根据您边缘节点的CPU架构选择边缘节点安装工具,单击“下载EdgeCore
两种方式。 通过证书注册。下载配置文件和边缘节点安装工具,在后续纳管边缘节点时将用到这些。 图3 下载配置文件和边缘核心软件 根据页面提示,单击“下载 边缘节点名称.tar.gz 配置文件”下载配置文件。 根据您边缘节点的CPU架构选择边缘节点安装工具,单击“下载EdgeCore
的亲和与反亲和时,如果设置了与某些节点亲和,那就没有必要再设置与其他节点反亲和,因为与这些节点亲和了,必然不会调度到其他节点。 容器应用与容器应用亲和:当容器应用A与容器应用B亲和时,容器应用A只会调度到容器应用B所在的节点。 反亲和性 容器应用与节点反亲和:当容器应用与节点反亲
安装并配置GPU驱动 背景信息 对于使用GPU的边缘节点,在纳管边缘节点前,需要安装并配置GPU驱动。 IEF当前支持Nvidia Tesla系列P4、P40、T4等型号GPU,支持CUDA Toolkit 8.0至10.0版本对应的驱动。 操作步骤 安装GPU驱动。 下载GPU驱动,推荐驱动链接:
安装并配置GPU驱动 背景信息 对于使用GPU的边缘节点,在纳管边缘节点前,需要安装并配置GPU驱动。 IEF当前支持Nvidia Tesla系列P4、P40、T4等型号GPU,支持CUDA Toolkit 8.0至10.0版本对应的驱动。 操作步骤 安装GPU驱动。 下载GPU驱动,推荐驱动链接:
应用部署管理 v2 创建应用部署 更新应用部署 查询应用部署详情 查询应用部署列表 删除应用部署 父主题: 历史API
使用IEF对集成方案进行验证。并输出《XXXX解决方案验证报告》 关于验证资源的获取,虚拟机等资源需要购买。验证过程中获取验证支持,请联系IEF咨询。 入驻云市场,具体流程请参见服务商入驻。 商品上架IEM,具体的上架指导与说明如下所示。 边缘应用中心: 可以上架容器镜像类、SaaS类和License类商品。
边云消息概述 IEF提供了边云消息路由功能,您可以配置消息路由,IEF根据消息路由将消息转发至对应端点,让消息按照规定的路径转发,灵活控制数据路由,并提高数据安全性。 消息端点:发送或接收消息的一方,可以是终端设备、云服务等。 消息路由:消息转发的路径。 消息端点 IEF提供如下默认消息端点:
容器应用实例重启 功能介绍 重启部署下的应用实例 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v3/{project_id}/edgemgr/depl
边云消息概述 IEF提供了边云消息路由功能,您可以配置消息路由,IEF根据消息路由将消息转发至对应端点,让消息按照规定的路径转发,灵活控制数据路由,并提高数据安全性。 消息端点:发送或接收消息的一方,可以是终端设备、云服务等。 消息路由:消息转发的路径。 消息端点 IEF提供如下默认消息端点:
0给您的边缘节点进行安装。 在IEF上注册的边缘节点与实际的边缘节点机器是一对一的关系,一个边缘节点的安装工具和配置文件只能安装在一台实际的边缘节点上。 前提条件 已经按要求准备好节点,并配置好节点环境,具体请参见配置边缘节点环境。 已经注册好节点并获取到节点配置文件和安装工具,具体请参见注册边缘节点。
在IEF中创建边缘节点,获取边缘节点的安装工具和配置文件,具体请参见注册自建边缘节点。 使用上一步获取的安装工具和配置文件纳管边缘节点,具体请参见纳管边缘节点。 图1 使用流程 父主题: 节点管理
在IEF中创建边缘节点,获取边缘节点的安装工具和配置文件,具体请参见注册边缘节点。 使用上一步获取的安装工具和配置文件纳管边缘节点,具体请参见纳管边缘节点。 图1 使用流程 父主题: 节点管理
0给您的边缘节点进行安装。 在IEF上注册的边缘节点与实际的边缘节点机器是一对一的关系,一个边缘节点的安装工具和配置文件只能安装在一台实际的边缘节点上。 前提条件 已经按要求准备好节点,并配置好节点环境,具体请参见配置边缘节点环境。 已经注册好节点并获取到节点配置文件和安装工具,具体请参见注册自建边缘节点。
感器等)较远,对于实时性要求高的计算需求,把计算放在云上会引起网络延时变长、网络拥塞、服务质量下降等问题。而终端设备通常计算能力不足,无法与云端相比。在此情况下,边缘计算顺应而生,通过在靠近终端设备的地方建立边缘节点,将云端计算能力延伸到靠近终端设备的边缘节点,从而解决上述问题。
容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡 容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点。 虚拟化切分后的NPU类型,一个容器只能挂载一个虚拟化NPU,只有当该容器退出后,该虚拟化NPU才能分配给其他容器使用。
支持选择50、200、1000节点。 终端设备 节点数量 x 50 终端设备模板 与节点数量一致 容器应用 节点数量 x 50 应用模板 与节点数量一致 应用模板版本 10 标签 每个资源最多20个标签 配置项 节点数量 x 5 密钥 节点数量 x 5 加密数据 50 消息端点 20 消息路由
容器规格:根据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡:容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点时AI加速卡配置。 虚拟化切分后的NPU类型,一个容器只能挂载一个虚拟化NPU,只有当该容器退出后,该虚拟化NPU才能分配给其他容器使用。