-
查询工作空间列表 - AI开发平台ModelArts
企业项目id,指定此参数会只返回该企业项目id下的工作空间。默认显示所有工作空间。 name 否 String 工作空间名称查询参数,指定此参数会模糊查询该名称的工作空间。默认显示所有工作空间。 filter_accessible 否 Boolean 该参数用于筛选可访问的工作空间。指定该参数为tru
-
计费样例 - AI开发平台ModelArts
采用哪种计费模式才是最具性价比的方式。 计费构成分析 基于此案例,可详细计算出按需计费和包年/包月两种不同的计费模式的消费情况。 此案例中的单价仅为示例,且计算出的费用为估算值。单价的变动和实际场景中计算出来的费用可能会有偏差。请以华为云官网发布的数据为准。 在使用ModelAr
-
获取Execution列表 - AI开发平台ModelArts
JobInput objects 节点的输入项。 outputs Array of JobOutput objects 节点的输出项。 step_uuid String 节点的UUID,唯一性标识。 properties Map<String,Object> 节点的属性。 events Array
-
在Notebook中上传文件失败,如何解决? - AI开发平台ModelArts
受限,需要解决内网的问题。 其它问题现象的可能原因如下: 无OBS访问授权。 无OBS桶或文件的访问权限。 OBS桶被删除。 解决方案 检查委托授权 请前往全局配置,查看是否具有OBS访问授权。如果没有,请参考配置访问授权(全局配置)。 请确认是否有OBS桶的访问权限 进入OBS
-
如何在代码中打印GPU使用信息 - AI开发平台ModelArts
|") 执行nvidia_smi + wapper + prettytable命令。 用户可以将GPU信息显示操作看作一个装饰器,在模型训练过程中就可以实时的显示GPU状态信息。 def gputil_decorator(func): def wrapper(*args, **kwargs):
-
查询服务列表 - AI开发平台ModelArts
project String 服务归属项目。 invocation_times Long 服务的总调用次数。 publish_at Long 服务最新的发布时间,距“1970.1.1 0:0:0 UTC”的毫秒数。 workspace_id String 工作空间ID。 schedule
-
ModelArts - AI开发平台ModelArts
SDK)是对ModelArts服务提供的REST API进行的Python封装,以简化用户的开发工作。 SDK文档 SDK下载 Session鉴权 OBS管理 作业管理 模型管理 服务管理 02 价格 ModelArts服务的计费方式简单、灵活,您既可以选择按实际使用时长计费。也可以选择更经济的按包周期计费方式。
-
功能咨询 - AI开发平台ModelArts
ModelArts支持将模型部署为哪些类型的服务? 在线服务和批量服务有什么区别? 在线服务和边缘服务有什么区别? 为什么选择不了Ascend 310资源? 线上训练得到的模型是否支持离线部署在本地? 服务预测请求体大小限制是多少? 在线服务部署是否支持包周期? 部署服务如何选择计算节点规格? 部署GPU服务支持的Cuda版本是多少?
-
部署本地服务进行调试 - AI开发平台ModelArts
可用以测试模型,不建议进行模型的工业应用。 当前版本支持部署本地服务Predictor的AI引擎为:“XGBoost”、“Scikit_Learn”、“PyTorch”、“TensorFlow”和“Spark_MLlib”。具体版本信息可参考支持的常用引擎及其Runtime。 示例代码
-
用户创建AI应用时构建镜像或导入文件失败 - AI开发平台ModelArts
用户授予OBS的系统权限。子用户的IAM权限是由其主用户设置的,如果主用户没有赋予OBS的putObjectAcl权限即会导致创建AI应用构建失败。 处理方法 了解ModelArts依赖的OBS权限自定义策略,请参见ModelArts依赖的OBS权限自定义策略样例。 在统一身份认
-
查询服务更新日志 - AI开发平台ModelArts
real-time类型必选。权重百分比,分配到此模型的流量权重,仅当infer_type为real-time时需要配置,多个权重相加必须等于100;当在一个在线服务中同时配置了多个模型版本且设置不同的流量权重比例时,持续地访问此服务的预测接口,ModelArts会按此权重比例将预测请求转发到对应的模型版本实例。 specification
-
服务启动后,状态断断续续处于“告警中” - AI开发平台ModelArts
the new request 原因分析 该报错是因为发送预测请求后,服务出现停止后又启动的情况。 处理方法 需要您检查服务使用的镜像,确定服务停止的原因,修复问题。重新创建AI应用部署服务。 父主题: 服务部署
-
部署在线服务出现报错No CUDA runtime is found - AI开发平台ModelArts
建议您按以下步骤排查处理: 确认部署在线服务时是否选择了GPU规格; 在customize_service.py中添加一行代码os.system('nvcc -V)查看该镜像的cuda版本; 确认该cuda版本与您安装的mmcv版本是否匹配; 部署时是否需要使用GPU,取决于的模型需要用到CPU还是GPU,以及推理脚本如何编写。
-
一般性问题 - AI开发平台ModelArts
什么是ModelArts ModelArts与其他服务的关系 ModelArts与DLS服务的区别? 如何购买或开通ModelArts? 支持哪些型号的Ascend芯片? 如何获取访问密钥? 如何上传数据至OBS? 提示“上传的AK/SK不可用”,如何解决? 使用ModelArts时提示“权限不足”,如何解决?
-
启动停止边缘节点服务实例 - AI开发平台ModelArts
(响应消息头中X-Subject-Token的值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 status 是 String 服务状态,取值为: running:running为启动节点实例,只有处于stopped状态的节点实例支持启动。 stopped:stop
-
部署AI应用(部署上线) - AI开发平台ModelArts
部署AI应用(部署上线) 部署AI应用(在线服务) 部署AI应用(批量服务) 部署AI应用(边缘服务) 修改服务 启动、停止、删除、重启服务 查看服务的事件
-
批量服务输入/输出obs目录不存在或者权限不足 - AI开发平台ModelArts
3567:用户只能访问自己账号下的obs目录,ModelArts在读取其他用户obs下的数据时,需要用户委托权限,没有创建委托,就没有权限使用其他用户obs中的数据。 登录ModelArts控制台,管理控制台,在左侧导航栏中选择“全局配置”,单击“查看权限”,检查是否配置了obs的委托权限。 图1
-
查询服务监控信息 - AI开发平台ModelArts
service_running_instance_count Integer 服务运行中实例数量。 service_instance_count Integer 服务实例数量。 req_count_per_min Long 服务分钟调用量,这里指当前时间上一分钟的服务调用总量。 表5 Monitor 参数 参数类型
-
服务管理 - AI开发平台ModelArts
服务管理 通过 patch 操作对服务进行更新 查询服务监控信息 查询服务列表 部署服务 查询支持的服务部署规格 查询服务详情 更新服务配置 删除服务 查询专属资源池列表 查询服务事件日志 启动停止边缘节点服务实例 查询服务更新日志 添加资源标签 删除资源标签 查询推理服务标签
-
修订记录 - AI开发平台ModelArts
修订记录 发布日期 修订记录 2024-01-18 新增案例: 使用自定义镜像创建的训练作业一直处于运行中 训练作业运行失败排查指导 调用API创建训练作业,训练作业异常 训练作业的监控内存指标持续升高直至作业失败 新增NCCL日志报错说明:训练作业运行失败,出现NCCL报错 2023-11-23