-
部署上线 - AI开发平台ModelArts
“预测”,进行服务测试,测试方法和下方陈述操作步骤一致。具体操作请参见测试服务。 您也可以通过调用代码对服务进行测试,根据部署服务类型的不同,具体操作详情参见访问在线服务、访问边缘服务。 下面的测试,是您在自动学习文本分类项目页面将模型部署上线之后进行服务测试的操作步骤。 模型部
-
模型部署为推理服务 - AI开发平台ModelArts
以进行服务预测。 推理服务预测 待在线推理服务状态变为“运行中”时,便可进行推理预测。 在在线推理服务列表页面,选择服务“状态”为“运行中”的服务。 单击操作列的“推理测试”,在测试页面根据任务类型以及页面提示完成对应的测试。 调用API 待推理服务的状态变为“运行中”时,可单击
-
推理简介 - AI开发平台ModelArts
在完成AI应用的创建后,可在“部署上线”页面对AI应用进行部署。ModelArts当前支持如下几种部署类型: 在线服务 将AI应用部署为一个Web Service,并且提供在线的测试UI与监控功能。 批量服务 批量服务可对批量数据进行推理,完成数据处理后自动停止。 边缘服务 通过智能边
-
性能调优 - AI开发平台ModelArts
性能调优 性能测试 benchmark工具也可用于性能测试,其主要的测试指标为模型单次前向推理的耗时。在性能测试任务中,与精度测试不同,并不需要用户指定对应的输入(inDataFile)和输出的标杆数据(benchmarkDataFile),benchmark工具会随机生成一个输
-
TensorBoard可视化作业 - AI开发平台ModelArts
TensorBoard可视化作业 ModelArts支持在开发环境中开启TensorBoard可视化工具。TensorBoard是TensorFlow的可视化工具包,提供机器学习实验所需的可视化功能和工具。 TensorBoard能够有效地展示TensorFlow在运行过程中的计算图、各种指
-
Tensorboard的使用 - AI开发平台ModelArts
Tensorboard的使用 ModelArts支持在开发环境中开启TensorBoard可视化工具。TensorBoard是TensorFlow的可视化工具包,提供机器学习实验所需的可视化功能和工具。 TensorBoard能够有效地展示TensorFlow在运行过程中的计算图、各种指
-
部署上线 - AI开发平台ModelArts
“预测”,进行服务测试,测试方法和下方陈述操作步骤一致。具体操作请参见测试服务。 您也可以通过调用代码对服务进行测试,根据部署服务类型的不同,具体操作详情参见访问在线服务、访问边缘服务。 下面的测试,是您在自动学习物体检测项目页面将模型部署上线之后进行服务测试的操作步骤。 模型部
-
部署上线 - AI开发平台ModelArts
“预测”,进行服务测试,测试方法和下方陈述操作步骤一致。具体操作请参见测试服务。 您也可以通过调用代码对服务进行测试,根据部署服务类型的不同,具体操作详情参见访问在线服务、访问边缘服务。 下面的测试,是您在自动学习图像分类项目页面将模型部署上线之后进行服务测试的操作步骤。 模型部
-
部署上线 - AI开发平台ModelArts
“预测”,进行服务测试,测试方法和下方陈述操作步骤一致。具体操作请参见测试服务。 您也可以通过调用代码对服务进行测试,根据部署服务类型的不同,具体操作详情参见访问在线服务、访问边缘服务。 下面的测试,是您在自动学习预测分析项目页面将模型部署上线之后进行服务测试的操作步骤。 模型部
-
部署上线 - AI开发平台ModelArts
“预测”,进行服务测试,测试方法和下方陈述操作步骤一致。具体操作请参见测试服务。 您也可以通过调用代码对服务进行测试,根据部署服务类型的不同,具体操作详情参见访问在线服务、访问边缘服务。 下面的测试,是您在自动学习声音分类项目页面将模型部署上线之后进行服务测试的操作步骤。 模型部
-
自动诊断工具MA-Advisor使用指导 - AI开发平台ModelArts
自动诊断工具MA-Advisor使用指导 自动诊断工具MA-Advisor简介 工具使用 昇腾迁移融合算子API替换样例 AI CPU 算子替换样例 父主题: PyTorch迁移性能调优
-
部署上线 - AI开发平台ModelArts
应用部署为在线服务。 服务测试 服务部署节点运行成功后,单击“实例详情”可跳转至对应的在线服务详情页面。单击“预测”页签,进行服务测试。您也可以通过调用代码对服务进行测试,根据部署服务类型的不同,具体操作详情参见访问在线服务、访问边缘服务。 图1 服务测试 下面的测试,是您在自动
-
自定义镜像规范 - AI开发平台ModelArts
自定义镜像规范 AI Gallery支持托管自定义镜像,但是托管的自定义镜像要满足规范才支持使用AI Gallery工具链服务(微调大师、在线推理服务)。 自定义镜像的使用流程 托管自定义镜像,操作步骤请参考托管模型资产。 如果自定义镜像要支持训练,则需要满足自定义镜像规范(训练)。
-
PyCharm ToolKit连接Notebook - AI开发平台ModelArts
远程开发功能只限PyCharm专业版。单击PyCharm工具下载地址下载并完成安装。 请下载2023.2或之前版本的PyCharm专业版工具。PyCharm toolkit未适配2023.2之后版本的PyCharm专业版工具。 Step1 创建Notebook实例 创建一个Not
-
自定义模型规范 - AI开发平台ModelArts
还支持托管其他任务类型的模型,其他任务类型的模型被称为自定义模型。但是托管的自定义模型要满足规范才支持使用AI Gallery工具链服务(微调大师、在线推理服务)。 自定义模型的使用流程 托管模型资产 模型基础设置里的“任务类型”选择除“文本问答”和“文本生成”之外的类型。 上传
-
调用API接口创建训练作业和部署服务时,如何填写资源池的参数? - AI开发平台ModelArts
调用API接口创建训练作业和部署服务时,如何填写资源池的参数? 调用API接口创建训练作业时,“pool_id”为“资源池ID”。 调用API接口部署在线服务时,“pool_name”为“资源池ID” 。 图1 资源池ID 父主题: API/SDK
-
ModelArts使用简介 - AI开发平台ModelArts
使用自定义算法构建模型(手写数字识别)。 如果您更习惯使用本地PyCharm工具开发模型,建议可参考本地开发的MindSpore模型迁移至云上训练,安装ModelArts PyCharmToolKit工具,在本地完成代码开发后,将代码提交至ModelArts云端进行训练。 如果您
-
ModelArts支持将模型部署为哪些类型的服务? - AI开发平台ModelArts
ModelArts支持将模型部署为哪些类型的服务? 支持在线服务、批量服务和边缘服务。 父主题: 功能咨询
-
通过py-spy工具分析卡死进程的调用栈并结合代码分析定位卡死问题 - AI开发平台ModelArts
通过py-spy工具分析卡死进程的调用栈并结合代码分析定位卡死问题 使用场景 本文指导用户通过py-spy工具分析卡死进程的调用栈并结合代码分析定位卡死问题。 操作步骤 在ModelArts控制台,选择“训练管理>训练作业”。 在训练作业详情页面,选择Cloud Shell页签,登录训练容器(训练作业需处于运行中)。
-
创建应用工程 - AI开发平台ModelArts
log:制作镜像以及实例运行日志 package:rpm打包配置文件 src: 工程开发代码主目录 test: 测试代码及测试数据 thirdparty:工程依赖的第三方库 tools: 工程构建依赖工具 manage.py: 工程套件命令行入口 该工程包含已经配置好的CMakeList文件,开发