检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
监控安全风险 ModelArts支持监控ModelArts在线服务和对应模型负载,执行自动实时监控、告警和通知操作,帮助用户更好地了解服务和模型的各项性能指标。详细内容请参见ModelArts支持的监控指标。 父主题: 安全
/v1/{project_id}/services/{service_id} modelarts:service:get - √ √ 更新模型服务 PUT /v1/{project_id}/services/{service_id} modelarts:service:update - √ √ 删除模型服务
请联系技术支持。 正常 服务更新中。 Updating service. - 正常 服务启动中。 Starting service. - 正常 服务停止中。 Stopping service. - 正常 服务已停止。 Service stopped. - 正常 自动停止开关已关闭。 Auto-stop
"error_msg": "Gateway forwarding error. Failed to invoke backend service due to connection refused. " 出现该报错有两种情况: 流量超过了模型的处理能力。可以考虑降低流量或者增加模型实例数量。
能。 URI GET /v2/{project_id}/datasets/{dataset_id}/data-annotations/search-condition 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id
module named ‘model_service.tfserving_model_service’,则需要您在推理代码customize_service.py里使用from model_service.pytorch_model_service import PTServingBaseService。示例代码:
请联系技术支持。 正常 服务更新中。 Updating service. - 正常 服务启动中。 Starting service. - 正常 服务停止中。 Stopping service. - 正常 服务已停止。 Service stopped. - 正常 自动停止开关已关闭。 Auto-stop
\n[Modelarts Service Log]exiting..: \n [Modelarts Service Log]exiting...\n[Modelarts Service Log]exit with : \n [Modelarts Service Log]exit with
性同本章初始化服务。 查询服务列表返回说明:service_list_resp = [service_instance1, service_instance2, service_instance3 ...],列表中元素“service_instance”对象即为服务管理章节描述的可调用服务接口。
响应Body参数 参数 参数类型 描述 service_name String 服务名称。 service_id String 服务ID。 monitors Array of Monitor objects 监控信息详情。 service_running_instance_count
管理模型训练作业 查看训练作业详情 查看训练作业资源占用情况 查看模型评估结果 查看训练作业事件 查看训练作业日志 修改训练作业优先级 使用Cloud Shell调试生产训练作业 重建、停止或删除训练作业 管理训练容器环境变量 查看训练作业标签 父主题: 使用ModelArts Standard训练模型
predictor_instance = Predictor(session, service_id="your_service_id") predictor_instance.delete_service() 方式2:根据查询服务对象列表返回的服务对象删除服务 1 2 3 4 5
t查询参数时,count与total相同。 services service结构数组 查询到的服务集合。 表3 service结构 参数 参数类型 描述 service_id String 服务ID。 service_name String 服务名称。 description String
响应Body参数 参数 参数类型 描述 search_algo_count Integer 超参搜索算法的个数。 search_algo_list Array of search_algo_list objects 所有超参搜索算法的列表。 表3 search_algo_list 参数 参数类型
示例调试功能。 URI GET /v1/{project_id}/services/{service_id}/api-auths 表1 路径参数 参数 是否必选 参数类型 描述 service_id 是 String 服务ID project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。
/v1/{project_id}/services/{service_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 service_id 是 String 服务ID。 请求参数 表2
predictor_instance.get_service_monitor() print(predictor_monitor) 参数说明 表1 get_service_monitor返回参数说明 参数 参数类型 描述 service_id String 服务ID。 service_name String
ustomize_service.py”,此文件有且只能有一个,模型推理代码编写请参见模型推理代码编写说明。 customize_service.py依赖的py文件可以直接放model目录下,推荐采用相对导入方式导入自定义包。 customize_service.py依赖的其他文
如果您购买的专属池是单节点的Tnt004规格:GPU: 1*tnt004 | CPU: 8 核 32GiB (modelarts.vm.gpu._tnt004u8),使用该集群创建Notebook实例时,Tnt004卡空闲但是规格显示售罄或者创建失败显示资源不足时,请联系技术支撑。 “类型” 芯片类型包括CPU、GPU和ASCEND类型。
使用自动分组智能标注作业 为了提升智能标注算法精度,可以均衡标注多个类别,有助于提升智能标注算法精度。ModelArts内置了分组算法,您可以针对您选中的数据,执行自动分组,提升您的数据标注效率。 自动分组可以理解为数据标注的预处理,先使用聚类算法对未标注图片进行聚类,再根据聚类