检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
disk:检查硬盘是否满足IEF的要求 dns:检查域名解析功能是否正常 network:检查节点是否能与IEF连接 docker:检查docker是否正常运行 gpu或nvidia:检查gpu设备是否存在且驱动正常运行 npu:检查npu设备是否存在 CHECKITEMS以英文的逗号“,”分隔,如下所示: edgectl
"resources": { "requests": { "gpu": 2, "cpu": 3, "memory":
memory Float 内存大小,单位兆,大于等于0.01,最大1024000。注意:内存的limits值最小为4;请求不需要带单位 gpu Float Gpu显存大小,单位兆,大于等于0.01,最大1024000;请求不需要带单位 npu Integer Npu个数,大于0,最大1000;请求不需要带单位
节点管理 边缘节点概述 配置边缘节点环境 注册边缘节点 纳管边缘节点 升级边缘节点 日志、监控和告警 安装并配置GPU驱动 边缘核心软件EdgeCore配置管理 删除边缘节点 父主题: 专业版操作指南
单击“下一步”,配置容器规格。 图1 镜像信息 镜像版本:请选择需要部署的镜像版本。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡 容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点。
参数类型 描述 limits 否 Map<String,String> 允许容器使用的最大资源,key值支持填写:cpu, memory, gpu, npu。 申请NPU资源时可填写指定的NPU芯片类型,支持填写:D310、D310B。注意:key值填写为npu时,默认使用npu_t
状态码 正常 返回值 说明 200 OK GET和PUT操作正常返回。 201 Created POST操作正常返回。 202 Accepted 请求已被接受。 204 No Content DELETE操作正常返回。 异常 返回值 说明 400 Bad Request 服务器未能处理请求。
memory Float 内存大小,单位兆,大于等于0.01,最大1024000。注意:内存的limits值最小为4;请求不需要带单位 gpu Float Gpu显存大小,单位兆,大于等于0.01,最大1024000;请求不需要带单位 npu Integer Npu个数,大于0,最大1000;请求不需要带单位
单击“下一步”,配置容器规格。 图1 镜像信息 镜像版本:请选择需要部署的镜像版本。 容器规格:根据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡:容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点时AI加速卡配置。
memory Float 内存大小,单位兆,大于等于0.01,最大1024000。注意:内存的limits值最小为4;请求不需要带单位 gpu Float Gpu显存大小,单位兆,大于等于0.01,最大1024000;请求不需要带单位 npu Integer Npu个数,大于0,最大1000;请求不需要带单位
memory Float 内存大小,单位兆,大于等于0.01,最大1024000。注意:内存的limits值最小为4;请求不需要带单位 gpu Float Gpu显存大小,单位兆,大于等于0.01,最大1024000;请求不需要带单位 npu Integer Npu个数,大于0,最大1000;请求不需要带单位
包括节点名称、描述、是否启用GPU、NPU、NPU类型、属性以及日志配置等,具体参数解释请参见API参考 > 注册边缘节点。 { "name": "nodename", "description": "", "enable_gpu": false, "enable_npu":
在生产环境中部署容器时,应避免使用latest版本。因为这会导致难以确定正在运行的镜像版本,并且难以正确回滚。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡:容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点。
在生产环境中部署容器时,应避免使用latest版本。因为这会导致难以确定正在运行的镜像版本,并且难以正确回滚。 容器规格:据需要选择容器CPU、内存、昇腾AI加速卡和GPU的配额。 昇腾AI加速卡容器应用选择的AI加速卡配置与实际部署的边缘节点配置的AI加速卡必须一致,否则会创建应用失败,详见注册边缘节点时AI加速卡配置。
包括节点名称、描述、是否启用GPU、NPU、NPU类型、属性以及日志配置等,具体参数解释请参见API参考 > 注册边缘节点。 { "name": "nodename", "description": "", "enable_gpu": false, "enable_npu":
设备孪生工作原理 边缘节点纳管后,会在边缘节点上安装Edge Agent,其中终端设备管理相关组件如下所示。 EdgeHub:WebSocket客户端,包括同步云端资源更新、报告边缘节点和终端设备信息到云端等功能。 DeviceTwin:设备孪生,负责存储终端设备状态并将设备状态同步到云端。
设备孪生工作原理 边缘节点纳管后,会在边缘节点上安装Edge Agent,其中终端设备管理相关组件如下所示。 EdgeHub:WebSocket客户端,包括同步云端资源更新、报告边缘节点和终端设备信息到云端等功能。 DeviceTwin:设备孪生,负责存储终端设备状态并将设备状态同步到云端。
下发人脸检测算法 购买边缘人脸检测算法包。 登录视频分析服务控制台,并选择与边缘节点相同的区域。 在页面左侧导航栏中选择“服务 > 园区智能体”,进入视觉能力包列表,在边缘人脸检测算法包所在行单击“购买”。 图1 购买边缘人脸检测算法包 选择“购买时长”和“视频路数”,单击“立即购买”。
产品优势 丰富的智能边缘应用 IEF提供丰富的智能边缘应用,提供流处理、视频分析、文字识别、图像识别等20+ AI模型部署到边缘节点运行,且提供边缘应用和云上服务协同能力。 图1 丰富的智能边缘应用 支持高性能边缘智能硬件 IEF提供软硬一体化解决方案,为用户提供低成本、开箱即用
响。 处于维护周期外的版本升级,可能会因为容器重启引起业务的短暂中断。 请勿在节点升级过程中变更节点配置,比如重启Docker、安装卸载GPU/NPU驱动、OS内核升级、变更网络配置等,这些操作会增大节点升级失败风险。 操作步骤 登录边缘节点,配置防火墙规则。 检查边缘节点防火墙状态。