检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
其他用户共享,更加高效。使用专属资源池需要在ModelArts创建专属资源池。 “部署方式”:选择应用的部署方式。 “在线服务”:将服务部署为在线服务,进而在线使用服务,也可以直接调用对应的API。 “HiLens部署”:将服务部署至HiLens设备。当前部署支持的HiLens设备为Atlas
进入“应用监控”页面,您可以查看当前版本应用的“基本信息”、“在线测试”、“历史版本”和“调用指南”。 监控基本信息 在“应用监控”页面,您可以查看应用的基本信息,针对不准确的信息,您可以单击“修改”,在右侧弹出的对话框中修改应用的部署信息。 图2 应用基本信息 在线测试应用 在“应用监控”页面,您可以针
指标较低的图片。 图2 详细评估 模拟在线测试 在“模型评估”页面,您可以在线测试当前模型,即通过上传测试图片,查看当前模型的预测结果。 待服务构建完成,单击“上传图片”,上传本地一张测试图片,即可查看当前模型版本的预测结果。 图3 模拟在线测试 后续操作 针对当前版本的模型,经
当新建应用时,服务部署方式选择“在线部署”时,支持选择计算规格。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 当新建应用时,服务部署方式选择“在线部署”时
当新建应用时,服务部署方式选择“在线部署”时,支持选择计算规格。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 当新建应用时,服务部署方式选择“在线部署”时
当新建应用时,服务部署方式选择“在线部署”时,支持选择计算规格。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 当新建应用时,服务部署方式选择“在线部署”时
工作流简介 观察云的外部形状,即云的外形特征、结构特点和云底高度,对预测天气变化有重要的影响。ModelArts Pro提供云状识别工作流,为您提供高精度的云状识别算法,通过云的外部形状预测天气变化。 功能介绍 支持上传多种云状图数据,构建云状的识别模型,用于高精度识别云的外部形状,进而用于气象预测工作。
在“设备管理”页面选择“设备状态”为“在线”,“应用运行状态”为“停止”的设备,单击“操作”列的“启用”。 待启用应用成功,页面右上角显示“启动成功”,同时“应用运行状态”更新为“运行中”。 停止应用 在“设备管理”页面选择“设备状态”为“在线”,“应用运行状态”为“运行中”的设备,单击“操作”列的“停止”。
帽检测技能,实现园区自动检测工人未戴安全帽的行为。 适用场景 智慧园区。 优势 模型精度高,检测速度快,更新模型简便。 端云协同推理:端侧设备可协同云侧在线更新模型,快速提升端侧精度。 对接华为HiLens技能开发平台,一键式创建技能,快速部署技能至端侧设备。 前提条件 使用ModelArts
“删除”:单击“删除”,弹出“删除数据集”对话框,单击“确认”,即可删除当前数据集。 查看应用监控 如果应用的部署方式是在线部署,您可以在“应用详情”页的“应用监控”页签下查看当前版本应用的“基本信息”、“在线测试”、“历史版本”和“调用指南”,详情请见监控应用。 父主题: 视觉套件
设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 部署成功后,页面显示“服务部署成功”,您可以单击“查看应用监控”,进入“应用监控”页面,监控应用的相关信息,详情请见监控应用。
设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 部署成功后,页面显示“服务部署成功”,您可以单击“查看应用监控”,进入“应用监控”页面,监控应用的相关信息,详情请见监控应用。
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参
文本分类工作流为例,介绍如何使用自然语言处理套件中的文本分类工作流开发应用,通过上传训练数据、训练模型,将生成的模型部署为在线服务。部署完成后,用户可通过在线服务分类文本内容。 首先,请仔细阅读准备工作罗列的要求,提前完成准备工作。使用通用文本分类工作流开发应用的步骤如下所示: 步骤1:准备数据
训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。 评估结果包括一些常用的指标,如精准率、召回率、F1值等,并且同时启动一个在线测试服务,供您模拟在线测试,帮助您有效评估模型,最终获得一个满意的模型。 评估模型 部署服务 模型准备完成后,您可以部署服务,用于识别刹车盘的类型,也可以直接调用对应的API和SDK识别。
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 模型评估 模型评估 “模型评估”下侧显示当前模型的版本、标签数量、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参
并训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参
训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。 评估结果包括一些常用的指标,如精准率、召回率、F1值等,并且同时启动一个在线测试服务,供您模拟在线测试,帮助您有效评估模型,最终获得一个满意的模型。 评估模型 部署服务 模型准备完成后,您可以部署服务,用于识别图像的类别,也可以直接调用对应的API和SDK识别。
训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。 评估结果包括一些常用的指标,如精准率、召回率、F1值等,并且同时启动一个在线测试服务,供您模拟在线测试,帮助您有效评估模型,最终获得一个满意的模型。 评估模型 部署服务 模型准备完成后,您可以部署服务,用于检测和识别车牌,也可以直接调用对应的API和SDK识别。