检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
APP的编号,可通过查询APP列表获取。 响应参数 状态码: 200 表5 响应Header参数 参数 参数类型 描述 X-Request-Id String 链路追踪编号 表6 响应Body参数 参数 参数类型 描述 auth_result Array of AppAuthResultInfo objects
【下线公告】华为云ModelArts服务旧版数据集下线公告 【下线公告】华为云ModelArts MindStudio/ML Studio/ModelBox镜像下线公告 【下线公告】华为云ModelArts算法套件下线公告
APP的编号,可通过查询APP列表获取。 响应参数 状态码: 200 表5 响应Header参数 参数 参数类型 描述 X-Request-Id String 链路追踪编号 表6 响应Body参数 参数 参数类型 描述 api AuthTypeApiBasicInfo object API详情。 auth_result
APP的编号,可通过查询APP列表获取。 响应参数 状态码: 200 表5 响应Header参数 参数 参数类型 描述 X-Request-Id String 链路追踪编号 表6 响应Body参数 参数 参数类型 描述 auth_result Array of AppAuthResultInfo objects
分布式训练功能介绍 ModelArts提供了如下能力: 丰富的官方预置镜像,满足用户的需求。 支持基于预置镜像自定义制作专属开发环境,并保存使用。 丰富的教程,帮助用户快速适配分布式训练,使用分布式训练极大减少训练时间。 分布式训练调测的能力,可在PyCharm/VSCode/J
APP的编号,可通过查询APP列表获取。 响应参数 状态码: 200 表6 响应Header参数 参数 参数类型 描述 X-Request-Id String 链路追踪编号 表7 响应Body参数 参数 参数类型 描述 unauth_result Array of AppAuthResultInfo objects
String 用户token。 响应参数 状态码: 200 表3 响应Header参数 参数 参数类型 描述 X-Request-Id String 链路追踪ID。 表4 响应Body参数 参数 参数类型 描述 dns_domain_name String 页面调用指南展示的访问域名,可用于添加内网DNS解析。
String 模型ID。 响应参数 状态码: 200 表5 响应Header参数 参数 参数类型 描述 X-Request-Id String 链路追踪ID。 表6 响应Body参数 参数 参数类型 描述 update_time String 本次更新时间,仅触发服务配置升级时会返回,
小限制是12MB,超过12MB时,请求会被拦截。 如果是从ModelArts console的预测页签进行的预测,由于console的网络链路的不同,此时要求请求体的大小不超过8MB。 因此,尽量避免请求体大小超限。如果有高并发的大流量推理请求,请提工单联系专业服务支持。 父主题:
紧急告警。 A050123 NPU 链路 npu dcmi net异常。 NPU网络链接异常。 A050129 NPU 其他 NPU其他错误。 检测到的其他NPU错误,通常为不可自纠正的异常,请联系技术人员支持。 A050149 NPU 链路 hccn tool网口闪断检查。 N
"description" : "AI inference application development, preconfigured ModelBox and AI engine LibTorch, only SSH connection supported.", "dev_services"
和工具链,以及具体的Notebook代码运行示例和最佳实践,并对于实际的操作原理和迁移流程进行说明,包含迁移后的精度和性能验证、调试方法说明。 核心概念 推理业务昇腾迁移整体流程及工具链 图1 推理业务昇腾迁移整体路径 推理业务昇腾迁移整体分为七个大的步骤,并以完整工具链覆盖全链路:
替换的目标值。 响应参数 状态码: 200 表5 响应Header参数 参数 参数类型 描述 X-Request-Id String 请求链路编号,可用于日志追踪 表6 响应Body参数 参数 参数类型 描述 update_time String 本次更新时间,仅触发服务配置升级
npu_link_status_speed NPU链路当前传输速度 该指标描述NPU设备链路的实际传输速度 GT/s instance_id,npu npu_link_status_width NPU链路当前传输宽度 该指标描述NPU设备链路的实际传输宽度 count instance_id,npu
NPU设备异常,昇腾dcmi接口中返回设备存在重要或紧急告警。 可能是亚健康,建议先重启节点,若重启节点后未恢复,发起维修流程。 NT_NPU_NET NPU 链路 npu dcmi net异常。 NPU网络链接异常。 可能是亚健康,建议先重启节点,若重启节点后未恢复,发起维修流程。 NT_NPU_CARD_LOSE
当使用API调用地址预测时,请求体的大小限制是12MB,超过12MB时,请求会被拦截。 使用ModelArts console的预测页签进行的预测,由于console的网络链路的不同,要求请求体的大小不超过8MB。 图2 请求报错APIG.0201 APIG.0301 鉴权失败 通过API进行服务预测,或者使用T
html),后台的实例运行是一直稳定的,重连即可再次连上。 解决方法 如果想保持长时间连接不断开,可以通过配置SSH定期发送通信消息,避免防火墙认为链路空闲而关闭。 客户端配置(用户可根据需要自行配置,不配置默认是不给服务端发心跳包),如图1,图2所示。 图1 打开VS Code ssh config配置文件
html),后台的实例运行是一直稳定的,重连即可再次连上。 解决方法 如果想保持长时间连接不断开,可以通过配置SSH定期发送通信消息,避免防火墙认为链路空闲而关闭。 客户端配置(用户可根据需要自行配置,不配置默认是不给服务端发心跳包),如图1,图2所示。 图1 打开VS Code ssh config配置文件
-s / --service String 否 注册镜像的服务类型,NOTEBOOK或者MODELBOX,默认是NOTEBOOK。 可以输入多个值,如-s NOTEBOOK -s MODELBOX。 -rs / --resource-category String 否 注册镜像能够使用的资源类型,默认是CPU和GPU。
"description": "AI inference application development, preconfigured ModelBox and AI engine LibTorch, only SSH connection supported.", "dev_services":