-
自定义镜像模型部署为在线服务时出现异常 - AI开发平台ModelArts
自定义镜像模型部署为在线服务时出现异常 问题现象 在部署在线服务时,部署失败。进入在线服务详情页面,“事件”页签,提示“failed to pull image, retry later”,同时在“日志”页签中,无任何信息。 图1 部署在线服务异常 解决方法 出现此问题现象,通常
-
使用预置的数据处理工具 - AI开发平台ModelArts
使用预置的数据处理工具 创建数据处理任务 管理和查看数据处理任务
-
AIGC工具tailor使用指导 - AI开发平台ModelArts
支持AOE优化 benchmark 支持测试性能 支持精度测试 profiling 支持分析算子的profiling 环境准备 本工具支持x86和ARM的系统环境,使用前需要安装以下软件。 表2 安装软件及步骤 软件 安装步骤 mindspore-lite 安装版本:2.2.10 下载地址:https://www
-
自动诊断工具MA-Advisor简介 - AI开发平台ModelArts
自动诊断工具MA-Advisor简介 MA-Advisor简介 MA-Advisor是一款昇腾迁移辅助工具,当前包含两大类功能: 一、迁移性能自动诊断,当前支持如下场景的自动诊断: 推理场景下的子图数据调优分析,给出对应融合算子的调优建议。 推理、训练场景下对Profiling
-
使用预置AI算法部署在线服务报错gunicorn:error:unrecorgized arguments - AI开发平台ModelArts
使用预置AI算法部署在线服务报错gunicorn:error:unrecorgized arguments 问题现象 使用预置AI算法部署在线服务报错gunicorn:error:unrecorgized arguments... 图1 在线服务报错 原因分析 根据报错日志分析,
-
使用自定义镜像创建在线服务,如何修改默认端口 - AI开发平台ModelArts
单击“创建”,进入创建AI应用界面,元模型选择“从容器镜像中选择”,选择自定义镜像; 配置“容器调用接口”和端口号,端口号与模型配置文件中的端口保持一致; 图1 修改端口号 设置完成后,单击“立即创建”,等待AI应用状态变为“正常”; 重新部署在线服务。 父主题: 导入模型
-
时序预测-time - AI开发平台ModelArts
时序预测-time_series_v2算法部署在线服务预测报错 问题现象 在线服务预测报错:ERROR: data is shorter than windows。 原因分析 该报错说明预测使用的数据行数小于window超参值。 在使用订阅算法时序预测-time_series_v
-
自动学习中部署上线是将模型部署为什么类型的服务? - AI开发平台ModelArts
自动学习中部署上线是将模型部署为什么类型的服务? 自动学习中部署上线是将模型部署为在线服务,您可以添加图片或代码进行服务测试,也可以使用URL接口调用。 部署成功后,您也可以在ModelArts管理控制台的“部署上线 > 在线服务”页面中,查看到正在运行的服务。您也可以在此页面停止服务或删除服务。
-
配置了合理的服务部署超时时间,服务还是部署失败,无法启动 - AI开发平台ModelArts
在自定义镜像健康检查接口中,用户可以实现实际业务是否成功的检测。在创建AI应用时配置健康检查延迟时间,保证容器服务的初始化。 因此,推荐在创建AI应用时配置健康检查,并设置合理的延迟检测时间, 实现实际业务的是否成功的检测,确保服务部署成功。 父主题: 在线服务
-
服务部署 - AI开发平台ModelArts
服务部署 自定义镜像模型部署为在线服务时出现异常 部署的在线服务状态为告警 服务启动失败 服务部署、启动、升级和修改时,拉取镜像失败如何处理? 服务部署、启动、升级和修改时,镜像不断重启如何处理? 服务部署、启动、升级和修改时,容器健康检查失败如何处理? 服务部署、启动、升级和修改时,资源不足如何处理?
-
迁移过程使用工具概览 - AI开发平台ModelArts
迁移过程使用工具概览 基础的开发工具在迁移的预置镜像和开发环境中都已经进行预置,用户原则上不需要重新安装和下载,如果预置的版本不满足要求,用户可以执行下载和安装与覆盖操作。 模型转换工具 离线转换模型功能的工具MSLite Convertor,支持onnx、pth、tensorf
-
使用AI市场物体检测YOLOv3 - AI开发平台ModelArts
使用AI市场物体检测YOLOv3_Darknet53算法训练后部署在线服务报错 问题现象 使用AI市场物体检测YOLOv3_Darknet53算法进行训练,将数据集切分后进行部署在线服务报错,日志如下:TypeError: Cannot interpret feed_dict key
-
API概览 - AI开发平台ModelArts
API概览 ModelArts服务所提供的接口均为自研接口。 通过ModelArts服务自研接口,您可以使用ModelArts Workflow、开发环境、训练管理、AI应用管理及服务管理功能。 工作流管理 表1 Workflow API 说明 获取Workflow列表 获取Workflow列表信息。
-
安装ToolKit工具时出现错误,如何处理? - AI开发平台ModelArts
安装ToolKit工具时出现错误,如何处理? 问题 在安装ToolKit工具过程中,出现如下错误。 图1 错误提示 回答 此问题是因为插件版本和PyCharm版本不一致导致的,需要获取和PyCharm同一版本的插件安装,即2019.2或以上版本。 父主题: PyCharm Toolkit使用
-
创建数据处理任务 - AI开发平台ModelArts
输入输出设置-数据集 图4 输入输出设置-OBS目录 确认参数填写无误后,单击“创建”,完成数据处理任务的创建。 父主题: 使用预置的数据处理工具
-
PyCharm ToolKit工具中Edit Credential时,出现错误 - AI开发平台ModelArts
PyCharm ToolKit工具中Edit Credential时,出现错误 问题现象 PyCharm ToolKit工具中Edit Credential时,提示Validate Credential error。 或 原因分析 可能原因一:Region等信息配置不正确 可能原
-
作为调用发起方的客户端无法访问已经获取到的推理请求地址 - AI开发平台ModelArts
作为调用发起方的客户端无法访问已经获取到的推理请求地址 问题现象 完成在线服务部署且服务处于“运行中”状态后,已经通过调用指南页面的信息获取到调用的server端地址,但是调用发起方的客户端访问该地址不通,出现无法连接、域名无法解析的现象。 原因分析 在调用指南页签中显示的调用地
-
SDK简介 - AI开发平台ModelArts
ModelArts服务软件开发工具包(ModelArts SDK)是对ModelArts服务提供的REST API进行的Python封装,以简化用户的开发工作。用户直接调用ModelArts SDK即可轻松管理数据集、启动AI训练以及生成模型并将其部署为在线服务。 ModelArts
-
管理和查看数据处理任务 - AI开发平台ModelArts
您可以在版本管理页面,通过切换页签查看“配置信息”、“日志”和“结果展示”。 图2 日志页面 图3 结果展示页面 父主题: 使用预置的数据处理工具
-
推理简介 - AI开发平台ModelArts
在完成AI应用的创建后,可在“部署上线”页面对AI应用进行部署。ModelArts当前支持如下几种部署类型: 在线服务 将AI应用部署为一个Web Service,并且提供在线的测试UI与监控功能。 批量服务 批量服务可对批量数据进行推理,完成数据处理后自动停止。 边缘服务 通过智能边