-
在线服务的API接口组成规则是什么? - AI开发平台ModelArts
在线服务的API接口组成规则是什么? AI应用部署成在线服务后,用户可以获取API接口用于访问推理。 API接口组成规则如下: https://域名/版本/infer/服务ID 示例如下: https://6ac81cdfac4f4a30be95xxxbb682.apig.xxx
-
启动、停止、删除、重启服务 - AI开发平台ModelArts
除服务。 单击目标服务名称,进入服务详情页面,单击右上角“删除”删除服务。 批量服务 单击批量服务列表“操作”列的“删除”,删除服务。 勾选批量服务列表中的服务,然后单击列表左上角“删除”按钮,批量删除服务。 单击目标服务名称,进入服务详情页面,单击右上角“删除”按钮进行删除。 边缘服务
-
访问在线服务(APP认证) - AI开发平台ModelArts
在部署为在线服务时,您可以开启支持APP认证功能。或者针对已部署完成的在线服务,您可以修改服务,开启支持APP认证功能。 登录ModelArts管理控制台,在左侧菜单栏中选择“部署上线 > 在线服务”,进入在线服务管理页面。 开启支持APP认证功能。 在部署为在线服务时,即“部署
-
查询服务更新日志 - AI开发平台ModelArts
用户Token。通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 service_name String 服务名称。 service_id String 服务ID。 logs
-
NFS服务安装与配置 - AI开发平台ModelArts
NFS服务安装与配置 NFS服务是ModelArts边缘资源池提供的数据存储卷服务,创建部署时可通过NFS挂载的方式访问共享数据,比如obs的模型文件。 涉及以下场景时,必须为资源池配置NFS服务: 创建AI应用时,元模型来源选择“从对象存储服务(OBS)中选择”,且AI引擎选择“Custom”。
-
ModelArts与DLS服务的区别? - AI开发平台ModelArts
ModelArts与DLS服务的区别? 深度学习服务(DLS)是基于华为云强大高性能计算提供的一站式深度学习平台服务,内置大量优化的网络模型,以便捷、高效的方式帮助用户轻松使用深度学习技术,通过灵活调度按需服务化方式提供模型训练与评估。 但是,DLS服务仅提供深度学习技术,而Mo
-
模型部署为推理服务 - AI开发平台ModelArts
查看推理服务 在在线推理服务列表页面,单击服务操作列的“服务详情”(如果是“运行中”的推理服务,则需要单击操作列的“更多 > 服务详情”),可以在弹窗中查看推理服务的“服务信息”、“服务日志”和“指标效果”。 停止推理服务 当“运行中”的推理服务使用完成后,在在线推理服务列表页面,单击操作列的“更多
-
与其他服务的关系 - AI开发平台ModelArts
与其他服务的关系 图1 ModelArts与其他服务的关系示意图 与统一身份认证服务的关系 ModelArts使用统一身份认证服务(Identity and Access Management,简称IAM)实现认证功能。IAM的更多信息请参见《统一身份认证服务用户指南》。 与对象存储服务的关系
-
常见问题 - AI开发平台ModelArts
常见问题 ML Studio错误码 父主题: ML Studio
-
部署本地服务进行调试 - AI开发平台ModelArts
Notebook部署本地服务。 本地服务Predictor和在线服务Predictor说明 部署本地服务Predictor,即将模型文件部署在本地,其环境规格取决于本地;例如在一个modelarts.vm.cpu.2u的Notebook中,部署本地Predictor,其运行环境就是cpu.2u。 部署在
-
更新模型服务的单个属性 - AI开发平台ModelArts
更新模型服务的单个属性 功能介绍 更新模型服务的单个属性,目前只支持instance_count(更新模型服务实例数量),仅运行中、告警、异常状态下的在线服务可以执行该操作。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生
-
查询服务列表 - AI开发平台ModelArts
service_id String 服务ID。 service_name String 服务名称。 description String 服务描述。 tenant String 服务归属租户。 project String 服务归属项目。 owner String 服务归属用户。 publish_at
-
查询服务对象列表 - AI开发平台ModelArts
service_id String 服务ID。 service_name String 服务名称。 description String 服务描述。 tenant String 服务归属租户。 project String 服务归属项目。 owner String 服务归属用户。 publish_at
-
访问在线服务(AK/SK认证) - AI开发平台ModelArts
根据提示完成身份验证,下载密钥,并妥善保管。 获取在线服务信息 在调用接口时,需获取在线服务的调用地址,以及在线服务的输入参数信息。步骤如下: 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。 单击目标服务名称,进入服务详情页面。 在“在线服务”的详情页面,可以获取该服务的调用地址和输入参数信息。
-
创建在线服务包 - AI开发平台ModelArts
表2 请求Body参数 参数 是否必选 参数类型 描述 status 否 String 服务包状态。 pool_id 是 String 资源池ID。 service_id 否 String 在线服务ID。 workflow_id 否 String 工作流ID。 order 是 WorkflowPoolOrder
-
公共参数 - AI开发平台ModelArts
公共参数 状态码 错误码 获取项目ID和名称 获取帐号名和帐号ID 获取用户名和用户ID
-
查看批量服务预测结果 - AI开发平台ModelArts
查看批量服务预测结果 当您在部署批量服务时,会选择输出数据目录位置,您可以查看“运行完成”状态的批量服务运行结果。 操作步骤 登录ModelArts管理控制台,在左侧菜单栏中选择“部署上线>批量服务”,进入“批量服务”管理页面。 单击状态为“运行完成”的目标服务名称,进入服务详情页面。
-
访问边缘服务 - AI开发平台ModelArts
访问边缘服务 访问边缘服务 当边缘服务和边缘节点的状态都处于“运行中”状态,表示边缘服务已在边缘节点成功部署。 您可以通过以下两种方式,在能够访问到边缘节点的网络环境中,对部署在边缘节点上的边缘服务发起预测请求。 方式一:使用图形界面的软件进行预测(以Postman为例) 方式二:使用curl命令发送预测请求
-
部署AI应用(边缘服务) - AI开发平台ModelArts
部署AI应用(边缘服务) 部署为边缘服务 访问边缘服务 NFS服务安装与配置 父主题: 部署AI应用(部署上线)
-
查询服务列表 - AI开发平台ModelArts
推理方式,默认不过滤推理方式。取值包含: real-time:在线服务 batch:批量服务 edge: 边缘服务 status 否 String 服务状态,默认不过滤服务状态,取值包含: running:运行中,服务正常运行。 deploying:部署中,服务正在部署,包含打镜像和调度资源部署。 co