检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型转换报错如何查看日志和定位? 通过如下的配置项打开对应的模型转换日志,可以看到更底层的报错。如配置以下的环境变量之后,再重新转换模型,导出对应的日志和dump图进行分析: 报错日志中搜到“not support onnx data type”,表示MindSpore暂不支持该算子。
在训练作业列表中,单击目标训练作业名称,查看该作业的详情。 在左侧获取“输出位置”下的路径,即为训练模型的下载路径。 模型迁移到其他账号 您可以通过如下两种方式将训练的模型迁移到其他账号。 将训练好的模型下载至本地后,上传至目标账号对应区域的OBS桶中。 通过对模型存储的目标文件夹或者目标
disable_affinity_api False 否 关闭亲和算子(融合算子、亲和优化器)API分析。对于首次从gpu迁移至npu的训练任务性能分析,建议保留该参数,替换亲和算子API通常能获得一定性能收益。对于完成迁移后在npu上长训的训练任务,如果出现性能问题,建议设置为True来提升分析速度。 7 output_path
行代码)。 图16 算子编译分析 Affinity API Issues 下图展示了低优先的亲和API替换,通常仅在首次将训练任务从GPU迁移至NPU时需要关注这部分内容。已经在NPU上进行长训的任务出现性能问题,可以忽略该部分。html中提示存在torch_npu.confusion_transpose
sh脚本测试ModelArts训练整体流程 自定义容器在ModelArts上训练和本地训练的区别如下图: 图1 本地与ModelArts上训练对比 ModelArts上进行训练比本地训练多了一步OBS和容器环境的数据迁移工作。 增加了和OBS交互工作的整个训练流程如下: 建议使用OBSutil作
共享池和专属池的区别是什么? 共享池是所有ModelArts共享的一个资源池,当使用人数比较多的时候,可能造成资源紧张而产生排队。 专属池是专属于您的资源池,不会因为资源紧张而产生排队,同时专属资源池支持打通自己的VPC,能和自己的资源网络互通。 父主题: Standard资源池
昇腾性能自动诊断工具使用说明 昇腾性能自动诊断工具msprof-analyze已发布至官方pypi源中,支持在任意环境上手动安装msprof-analyze分析调优工具,执行命令“pip install msprof-analyze”即可完成安装。 本文旨在帮助您了解msprof
sh脚本实现OBS和训练容器间的数据传输 自定义容器在ModelArts上训练和本地训练的区别如下图: 图1 本地与ModelArts上训练对比 ModelArts上进行训练比本地训练多了一步OBS和容器环境的数据迁移工作。 增加了和OBS交互工作的整个训练流程如下: 建议使用OBSutil作
ModelArts SDK、OBS SDK和MoXing的区别? ModelArts SDK ModelArts服务提供的SDK,可调用ModelArts功能。您可以下载SDK至本地调用接口,也可以在ModelArts Notebook中直接调用。 ModelArts SDK提供
完成资源配置后,您可以登录到服务器进行训练和推理,具体案例可参考Lite Server资源使用。 资源管理 Lite Server提供启动、停止、切换操作系统等管理手段,您可在ModelArts控制台上对资源进行管理。 表1 相关名词解释 名词 含义 裸金属服务器 裸金属服务器是一款兼具虚拟机弹性和物
ModelArts自动学习与ModelArts PRO的区别 ModelArts自动学习,提供了AI初学者,零编码、零AI基础情况下,可使用自动学习功能,开发用于图像分类、物体检测、预测分析、文本分类、声音分类等场景的模型。 而ModelArts PRO是一款为企业级AI应用打造
基于ModelArts performance advisor插件的昇腾PyTorch性能调优步骤 基于ModelArts performance advisor插件的昇腾PyTorch性能调优主要分为以下步骤: 准确采集性能劣化时刻的profiling数据。 存储profiling数据。
在线服务和批量服务有什么区别? 在线服务 将模型部署为一个Web服务,您可以通过管理控制台或者API接口访问在线服务。 批量服务 批量服务可对批量数据进行推理,完成数据处理后自动停止。 批量服务一次性推理批量数据,处理完服务结束。在线服务提供API接口,供用户调用推理。 父主题:
在线服务和边缘服务有什么区别? 在线服务 将模型部署为一个Web服务,您可以通过管理控制台或者API接口访问在线服务。 边缘服务 云端服务是集中化的离终端设备较远,对于实时性要求高的计算需求,把计算放在云上会引起网络延时变长、网络拥塞、服务质量下降等问题。而终端设备通常计算能力不
自动学习和订阅算法有什么区别? 针对不同目标群体,ModelArts提供不同的AI开发方式。 如果您是新手,推荐您使用自动学习实现零代码模型开发。当您使用自动学习,系统会自动选择适合的算法和适合的参数进行模型训练。 如果您是AI开发进阶者,通过订阅算法进行模型训练有更多算法上的选择,并且您可以自定义训练所需的参数。
Lite Server服务器的名称。 实例规格 Lite Server服务器的规格。 ID Lite Server服务器的ID,可用于在费用中心查询。 计费模式 Lite Server服务器当前的计费模式。 状态 Lite Server服务器的运行状态。 虚拟私有云 Lite Serv
执行exit命令退出容器,在宿主机上执行ssh测试: ssh root@宿主机IP -p 51234(映射的端口号) 图20 执行ssh测试 如果在宿主机执行ssh容器测试时报错Host key verification failed,可删除宿主机上的文件~/.ssh/known_host后再重试。
切换Lite Server服务器操作系统 场景描述 Lite Server为一台弹性裸金属服务器,您可以使用BMS服务提供的切换操作系统功能,对Lite Server资源操作系统进行切换。本文介绍以下三种切换操作系统的方式: 在BMS控制台切换操作系统 使用BMS Go SDK的方式切换操作系统
在左侧导航栏中,选择“AI专属资源池 > 弹性节点 Server”,进入“弹性节点 Server”列表页面。 单击Server服务器名称,进入Server服务器详情页面,单击裸金属服务器名称,跳转至裸金属服务器详情页。 图1 裸金属服务器 单击“弹性公网IP”页签,然后单击“绑定弹性公网IP”。
join(the_path_of_current_file, 'infer/customize_service.py'), os.path.join(model_path, 'customize_service.py')) shutil.copyfile(os.path.joi