检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
一般告警不会对系统产生大的影响,需要尽快采取相应的措施,防止故障升级。 严重告警(Major) 严重告警将会对系统产生较大的影响,有可能中断部分系统的正常运行,导致业务中断。 紧急告警(Critical) 紧急告警可能会使设备下电,系统中断。需要马上采取相应的措施进行处理。 查看告警步骤 在
当前工作空间”下方的下拉框中选择默认工作空间“default”。 在左侧导航栏中选择“设备管理>设备列表”,选择待分配的设备单击设备卡片。 进入设备详情页。 单击右上角的“分配工作空间”。 弹出“分配工作空间”对话框。 勾选步骤一:子账号创建工作空间中所创建的工作空间,单击“确定”。
模型导入后,将进入“模型管理”页面,您导入的模型可从列表中查看模型导入(转换)的状态,包括“转换中”、“转换失败”、“转换成功”、“导入失败”、“导入成功”,当状态为“导入成功”时,您可以在华为HiLens管理控制台新建技能。 步骤3:新建技能 在华为HiLens管理控制台的左侧导航栏中选择“技能开发>技能管理”,进入技能列表。
在设备详情页面,单击“技能管理”,切换至技能管理页签。 选择新建技能中新建的技能,单击操作列的“运行时配置”。 按表2填写运行时配置参数,填完单击“执行配置”。 表2 运行时配置参数说明 参数 说明 server_url 用于接收POST数据的服务器地址。可以在cmd命令行中用config命令查找,这里使
手动添加步骤一:配置无线网络时分配的IP所对应的默认路由表项。 操作步骤 使用默认IP,SSH登录HiLens Kit,进入管理员(develop)权限命令行界面,详情请见SSH登录HiLens Kit设备。 在命令行界面执行命令,添加默认路由表项。 以步骤一:配置无线网络分配的IP所对应的默认网关是“192
Kit兼容,所以在Modelarts和HiLens控制台经过模型转换的模型,只能用在HiLens Kit上,不能用在HiLens Studio上。 在HiLens Studio上进行模型转换后,会同时输出两个版本的模型,然后通过模型配置文件来指定在不同的平台上使用不同的模型,这样同一个技能在HiLens Studio和HiLens
示例-输出 本示例展示了多种输出端的接口调用,在使用前请确保各种输出端已连接并可用,若您的某种输出端条件不具备,请将示例代码当中相应的代码注释掉或者删除,再运行示例代码。输出模块示例如下所示: #! /usr/bin/python3.7 import hilens import cv2
华为HiLens和ModelArts的关系 ModelArts是面向AI开发者的一站式开发平台,核心功能是模型训练。华为HiLens偏AI应用开发,并实现端云协同推理和管理。 您可以使用ModelArts训练算法模型,然后在ModelArts或者华为HiLens中转换成华为HiLens支持的“om”格式
2.111‘s password”提示语后输入默认账户“admin”的密码,首次登录默认密码请参见HiLens Kit 用户指南>默认数据。 使用SSH远程登录开发者命令行界面。 在“IES:/->”提示语后执行命令develop。 在“Password”提示语后输入root密码,首次登录默认密码请参见HiLens
图2 HTTP请求检查 执行命令检查 命令检查是一种强大的检查方式,该方式要求用户指定一个容器内的可执行命令,集群会周期性地在容器内执行该命令,如果命令的返回结果是0则检查成功,否则检查失败。 对于上面提到的HTTP请求检查,可以通过执行命令检查的方式来替代,我们可以写一个脚本来对容器进行wget。
Kit系统固件版本前,请先联系接口人评估升级操作对业务连续性的风险。 升级HiLens Kit系统固件版本会重装整个系统目录,将导致系统目录下安装的软件会丢失。可采用如下方法确定系统目录的位置,用df -h命令可查看当前分区信息,“/dev/mmcblk0p2”对应根目录即是系
源码编译安装:下载源码编译aarch64版本的软件包。 rpm包安装:华为开源镜像站上下载相应的rpm包及其依赖并使用rpm安装软件包。也可以参考论坛安装yum,然后使用yum安装相应的包。 配置技能的Python依赖库,详情请见如何配置技能的Python依赖库?。 父主题: HiLens
华为HiLens上可以运行哪些TensorFlow和Caffe的模型? 准确地说,华为HiLens上只能运行“om”模型,华为HiLens管理控制台的“模型导入(转换)”功能支持将部分TensorFlow/Caffe模型转换成“om”模型。 当前可支持的TensorFlow/Caffe算子范围请参
前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把TensorFlow和Caffe模型转换成“
前提条件 目前,HiLens Kit的AI芯片支持运行“.om”模型,“.om”模型可以通过TensorFlow或Caffe模型转换而来,但“.om”模型并不支持TensorFlow和Caffe全部的算子,所以在开发模型的时候开发者需要用“.om”模型支持的算子,才能把TensorFlow和Caffe模型转换成“
//华为HiLens智能边缘管理系统的访问IP地址”(默认IP为192.168.2.111)。如果默认IP已经修改,请使用新的IP登录HiLens智能边缘管理系统。 详细操作请参见登录华为HiLens智能边缘系统。 在弹出的修改窗口中,输入新的用户名、原密码、新密码、确认密码并单击“确定”。
如何管理设备文件? 删除sftp限制,命令行输入: rm -rf /etc/usr/sftp_disable 然后重新打开一个SSH窗口,便能把本地文件放入“/tmp”中,也能在“/tmp”中把文件夹拉取到本地。 “/tmp”为临时文件夹,设备重启后清除。若需保留,则需将文件再移至其他文件夹。
模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx.caffemodel
确认待转换的模型算子是否为“.om”模型支持的TensorFlow和Caffe算子边界 并非所有模型都能转换成功,进行导入(转换)模型操作前,请确认是否为“.om”模型支持的TensorFlow和Caffe算子边界,详情请见附录Caffe算子边界和Tensorflow算子边界。 模型要求
和参数的值。不能为空。 类型 参数值的类型,表示该参数项的值是什么类型的数据。支持“int”、“float”、“string”、“enum”类型。 固定值 必填项,选择该参数是否是固定值。 默认值 参数默认值。 校验规则 请输入一个合法的正则表达式字符串。 参数说明 参数的说明,