检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 本样例选择1个计算节点。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 本样例选择“1小时后”。
“公共资源池”:提供公共的大规模计算集群,资源按作业隔离。您可以按需选择不同的资源类型。 “专属资源池”:提供独享的计算资源,不与其他用户共享,更加高效。使用专属资源池需要在ModelArts创建专属资源池。 计算节点规格 当新建应用时,服务部署方式选择“在线部署”时,支持选择计算规格。 计算节点个数
图片,然后对多个模板图片进行文字识别和结构化提取。 训练分类器 评估应用 通过上传测试图片,在线评估模板分类情况和模板的文字识别情况,保证能在多个模板情况下正确分类测试图片的模板,并且能正确识别测试图片中的识别区文字。 评估应用 部署服务 模板图片评估后,可以部署模板至文字识别开
支持将开发好的服务或技能一键部署到端、边、云的各种场景上。 在线部署:将服务或技能部署为在线推理服务,可以实现高并发,低延时,弹性伸缩,并且支持多模型灰度发布、A/B测试。将应用部署为一个Web Service,并且提供在线的测试与监控能力。 HiLens部署:将服务或技能部署在边缘设备HiLens
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 部署成功后,页面显示“服
Arts创建的专属资源池。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。
“公共资源池”:提供公共的大规模计算集群,资源按作业隔离。您可以按需选择不同的资源类型。 “专属资源池”:提供独享的计算资源,不与其他用户共享,更加高效。使用专属资源池需要在ModelArts创建专属资源池。 计算节点规格 界面上选择计算规格。 服务自动停止 设置服务自动停止的时间,在线服务运行状态
“删除”:单击“删除”,弹出“删除数据集”对话框,单击“确认”,即可删除当前数据集。 查看应用监控 如果应用的部署方式是在线部署,您可以在“应用详情”页的“应用监控”页签下查看当前版本应用的“基本信息”、“在线测试”、“历史版本”和“调用指南”,详情请见监控应用。 父主题: 视觉套件
Arts创建的专属资源池。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。
Arts创建的专属资源池。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 部署成功后,页面显示“服
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 部署成功后,页面显示“服
训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、标签数量、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型
训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参数
训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参数
自然语言处理计费项说明 计费项 说明 训练文本分类模型、训练实体抽取模型 工作流中训练模型时,会使用到ModelArts计算资源。 部署服务(在线服务) 工作流中部署在线服务时,会使用到计算型实例资源。 计费模式 按需购买。购买方式比较灵活,可以即开即停。 依赖服务计费 由于使用自然语言处理套件的过程中依赖对象存储服务(Object
自然语言处理计费项说明 计费项 说明 训练文本分类模型、训练实体抽取模型 工作流中训练模型时,会使用到ModelArts计算资源。 部署服务(在线服务) 工作流中部署在线服务时,会使用到计算型实例资源。 计费模式 按需购买。购买方式比较灵活,可以即开即停。 依赖服务计费 由于使用自然语言处理套件的过程中依赖对象存储服务(Object
训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参数
训练模型,详情请见训练模型。 评估模型 在“模型评估”页面,您可以针对当前版本的模型进行模型评估,查看评估参数对比和详细评估,也可以模拟在线测试。 图1 评估模型 模型评估 “模型评估”下侧显示当前模型的版本、验证集数量。 评估参数对比 “评估参数对比”下方显示当前模型的评估参数
部署服务后,调用API失败怎么办? 在ModelArts Pro使用预置工作流部署服务后,可通过调用API和SDK调用已部署的在线服务。如果调用API失败,可根据返回的错误码及错误信息解决问题,具体的错误码说明请见表1。 表1 API调用指导 行业套件 调用API方法 错误码 文字识别套件