检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Q:HA安装是否支持一主多备?如何安装?A:支持。安装时根据备机数量指定LOG_ARCHIVE_DEST_2- LOG_ARCHIVE_DEST_9。
Python安装 不同平台对Python环境的默认支持是不同的: Windows 平台没有默认安装 Python Linux/Mac 平台大部分默认安装了 Python2.7 安装Python3.x 版本: Windows:下载 Windows 安装包安装:https://www
Excel数学统计函数操作简介 Excel是一款广泛使用的办公软件,它除了可以用来处理文字、表格等常见的办公工作外,还拥有强大的数学统计功能。在Excel中,我们可以利用数学统计函数来快速处理大量数据,并进行数据分析和决策。本文将从四个方面对Excel数学统计函数进行详细阐述。
vi /data/gitlab/config/gitlab.rb # 配置http协议所使用的访问地址,不加端口号默认为80 external_url 'http://192.168.10.106' # 配置ssh协议所使用的访问地址和端口 gitlab_rails['gitlab_ssh_host']
【功能模块】 测试底板,启动失败,【操作步骤&问题现象】1、SD卡加载失败,日志见附件2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
【操作步骤&问题现象】请问为什么mindstudio没有错误的情况下也有红色波浪线,这个代码可以正常编译运行【截图信息】
【功能模块】静态人脸识别应用案例:https://www.hiascend.com/zh/developer/mindx-sdk/applicationDetails/60172216?fromPage=1想学习下此案例的流程,下载之后按照reamme的介绍是有提供对应的om模型
【功能模块】atc 模型转换【操作步骤&问题现象】1、atc --model=$mypath.onnx --framework=5 --output=$mypath --soc_version=Ascend3102、ATC start working now, please wait
比如 这个接口 https://192.168.3.111:8880/host/mcs/v1/transinfo返回了{"error_code":"ERR.2002"}这个ERR.2002的描述在哪里看
图片处理相关案例问题描述:原来是三通道的图像,但模型输入时需要单通道图像,这种情况下如何修改代码?解决方法:将原来的三通道图像转换为灰度图即可,代码示例如下:bool face_emotion_inference::ImageYUV2BGR ( const vector<ImageData<u_int8_t>>
【功能模块】【操作步骤&问题现象】1、有没有可以测试这个tops性能的样例代码,官网的样例代码好像没有求助!2、【截图信息】【日志信息】(可选,上传日志内容或者附件)
按照 https://gitee.com/lovingascend/ADKInstaller 里面的教程,制作了SD卡然后放到开发板里面。开发板上的4个LED灯全部常亮,但是在ADKInstaller的Step02里面refresh出不来开发板的ip。服务器上直接ifconfi
我目前用的是https://github.com/YunYang1994/tensorflow-yolov3的模型,转成的om是fp32然后在开发板上的时间如下:读取图片+padding+resize :0.017s模型推理:0.06s后处理(nms等):0.01s大部分时间都在
【功能模块】目标检测样例【操作步骤&问题现象】以目标检测样例为例,在检测到某个目标后,请问如果想实现发声警示方面的功能,不接外设能够实现吗,还是必须要通过GPIO等接口控制蜂鸣器之类的设备实现功能呢?感谢大佬们解答。
【功能模块】搭建环境--制卡【操作步骤&问题现象】1、搭建环境--制卡2、[ERROR] Can not find ubuntu*server*arm*.iso package in current path版本下载的是:ubuntu-18.04.5-server-arm64.i
现在需要把onnx转换为om,需要使能AIPP,ATC开发文档里面有如下描述:模型转换时开启AIPP,在进行推理业务时,输入图片数据要求为NHWC排布,该场景下最终与AIPP连接的输入节点的格式被强制改成NHWC,可能与模型转换命令中--input_format参数指定的格式不一
【问题】把tensorflow模型转换成om模型后,模型推理可以正常进行,但是推理出来的结果与我使用tensorflow模型测试的结果不一致(左边的是开发板的推理结果,右边是tensorflow模型直接测试的结果)【截图信息】【可能原因】fp16精度不够,模型转换,当算子同时支持
由于需要使用到协处理器模式下的通过GPIO6控制深度休眠与唤醒功能,请问主处理器模式和协处理器模式是如何设置的?是否通过硬件电路设置实现?
【功能模块】【操作步骤&问题现象】1、我按照官方的视频进行文件下载与制卡,到了这一步出现了问题。2、尝试了wget文件,无法连接到服务器。3、论坛现有的解决方法无法解决问题【截图信息】【日志信息】(可选,上传日志内容或者附件)