-
在线服务预测报错ModelArts.4206 - AI开发平台ModelArts
在线服务预测报错ModelArts.4206 问题现象 在线服务部署完成且服务已经处于“运行中”的状态,向服务发起推理请求,报错“ModelArts.4206”。 原因分析 ModelArts.4206表示该API的请求流量超过了设定值。为了保证服务的平稳运行,ModelArts
-
在线服务预测报错DL.0105 - AI开发平台ModelArts
在线服务预测报错DL.0105 问题现象 在线服务预测报错DL.0105,报错日志:“TypeError:‘float’object is not subscriptable”。 原因分析 根据报错日志分析,是因为一个float数据被当做对象下标访问了。 处理方法 将模型推理代码
-
调整模型后,部署新版本AI应用能否保持原API接口不变? - AI开发平台ModelArts
已存在部署完成的服务。 已完成模型调整,创建AI应用新版本。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。 在部署完成的目标服务中,单击操作列的“修改”,进入“修改服务”页面。 在选择模型及配置中,单击“增加模型版本进行灰度发布”添加新版本。
-
在线服务预测报错ModelArts.4503 - AI开发平台ModelArts
https"} 部署在线服务使用的模型是从容器镜像中导入时,容器调用接口协议填写错误,会导致此错误信息。 出于安全考虑,ModelArts提供的推理请求都是https请求,从容器镜像中选择导入模型时,ModelArts允许使用的镜像提供https或http服务,但必须在“容器调用接口”中明确
-
ModelArts中常用概念 - AI开发平台ModelArts
指按某种策略由已知判断推出新判断的思维过程。人工智能领域下,由机器模拟人类智能,使用构建的神经网络完成推理过程。 在线推理 在线推理是对每一个推理请求同步给出推理结果的在线服务(Web Service)。 批量推理 批量推理是对批量数据进行推理的批量作业。 Ascend芯片 Asce
-
在线服务预测报错ModelArts.4302 - AI开发平台ModelArts
在线服务预测报错ModelArts.4302 问题现象 在线服务部署完成且服务已经处于“运行中”的状态后,向运行的服务发起推理请求,报错ModelArts.4302。 原因分析及处理方法 服务预测报错ModelArts.4302有多种场景,以下主要介绍两种场景: "error_msg":
-
创建工作空间 - AI开发平台ModelArts
创建工作空间 功能介绍 创建工作空间("default"为系统预留的默认工作空间名称,不能使用)。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v1/{project_id}/workspaces
-
CloudShell - AI开发平台ModelArts
登录运行中在线服务实例容器。 约束限制 只支持专属资源池部署的在线服务使用CloudShell访问容器。 在线服务必须处于“运行中”状态,才支持CloudShell访问容器。 如何使用CloudShell 登录ModelArts控制台,左侧菜单选择“部署上线 > 在线服务”。 在
-
在线服务部署是否支持包周期? - AI开发平台ModelArts
在线服务部署是否支持包周期? 在线服务不支持包周期的计费模式。 父主题: 功能咨询
-
查看服务详情 - AI开发平台ModelArts
表1 在线服务配置 参数 说明 名称 在线服务名称。 状态 在线服务当前状态。 来源 在线服务的来源。 服务ID 在线服务的ID。 描述 您可以单击编辑按钮,添加服务描述。 资源池 当前服务使用的资源池规格。若使用公共资源池部署,则不显示该参数。 个性化配置 您可以为在线服务的不
-
部署在线服务出现报错No CUDA runtime is found - AI开发平台ModelArts
部署在线服务出现报错No CUDA runtime is found 问题现象 部署在线服务出现报错No CUDA runtime is found,using CUDA_HOME='/usr/local/cuda'。 原因分析 从日志报错信息No CUDA runtime is
-
推理服务测试 - AI开发平台ModelArts
推理服务测试 推理服务在线测试支持文件、图片、json三种格式。通过部署为在线服务Predictor可以完成在线推理预测。 示例代码 在ModelArts notebook平台,Session鉴权无需输入鉴权参数。其它平台的Session鉴权请参见Session鉴权。 场景:部署在线服务Predictor的推理预测
-
模型使用CV2包部署在线服务报错 - AI开发平台ModelArts
模型使用CV2包部署在线服务报错 问题现象 使用CV2包部署在线服务报错 原因分析 使用OBS导入元模型,会用到服务侧的标准镜像,标准镜像里面没有CV2依赖的so的内容。所以ModelArts不支持从对象存储服务(OBS)导入CV2模型包。 处理方法 需要您把CV2包制作为自定义
-
在线服务和批量服务有什么区别? - AI开发平台ModelArts
在线服务和批量服务有什么区别? 在线服务 将模型部署为一个Web服务,您可以通过管理控制台或者API接口访问在线服务。 批量服务 批量服务可对批量数据进行推理,完成数据处理后自动停止。 批量服务一次性推理批量数据,处理完服务结束。在线服务提供API接口,供用户调用推理。 父主题:
-
训练profiling工具使用 - AI开发平台ModelArts
训练profiling工具使用 五板斧操作之后,如果性能仍然不满足要求,便需要通过profiling工具采集性能数据,基于数据分析是哪个环节、哪个算子导致的性能消耗,进而做性能优化。 目前有两种方式采集训练profiling数据:Ascend PyTorch Profiler数据采集与分析和E2E
-
下载并安装ToolKit工具 - AI开发平台ModelArts
下载并安装ToolKit工具 在使用PyCharm ToolKit之前,您需要根据如下操作指导完成在PyCharm中的安装配置。 前提条件 本地已安装2019.2及以上版本的PyCharm社区版或专业版。 使用PyCharm ToolKit远程连接Notebook开发环境,仅限PyCharm专业版。
-
服务部署失败,报错No Module named XXX - AI开发平台ModelArts
XXX,表示模型中没有导入对应依赖模块。 处理方法 依赖模块没有导入,需要您在模型推理代码中导入缺失依赖模块。 例如您的AI应用是Pytorch框架,部署为在线服务时出现告警:ModuleNotFoundError: No module named ‘model_service.tfserving
-
在线服务和边缘服务有什么区别? - AI开发平台ModelArts
在线服务和边缘服务有什么区别? 在线服务 将模型部署为一个Web服务,您可以通过管理控制台或者API接口访问在线服务。 边缘服务 云端服务是集中化的离终端设备较远,对于实时性要求高的计算需求,把计算放在云上会引起网络延时变长、网络拥塞、服务质量下降等问题。而终端设备通常计算能力不
-
使用预置的数据处理工具 - AI开发平台ModelArts
使用预置的数据处理工具 创建数据处理任务 管理和查看数据处理任务
-
Gallery CLI配置工具指南 - AI开发平台ModelArts
Gallery CLI配置工具指南 Gallery CLI配置工具介绍 安装Gallery CLI配置工具 登录登出Gallery CLI配置工具 使用Gallery CLI配置工具下载文件 使用Gallery CLI配置工具上传文件 父主题: AI Gallery(新版)