检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HiLens套件 文字识别套件 计费项 按API调用次数按需计费。 只有调用成功才会计算调用次数,其中2xx状态码表示调用成功。 计费模式 按需计费 指按照自定义模板文字识别API调用次数、阶梯价格计费,按月累计,一个自然月后次数清零重新累计。具体计费价格请参见文字识别价格详情,类型选择“自定义模板OCR”。
ens条件处于公测阶段。各个套件的计费项和计费模式如下: 文字识别套件 自然语言处理套件 视觉套件 HiLens套件 文字识别套件 计费项 按API调用次数按需计费。 只有调用成功才会计算调用次数,其中2xx状态码表示调用成功。 计费模式 按需计费 指按照自定义模板文字识别API
“公共资源池”:提供公共的大规模计算集群,资源按作业隔离。您可以按需选择不同的资源类型。 “专属资源池”:提供独享的计算资源,不与其他用户共享,更加高效。使用专属资源池需要在ModelArts创建专属资源池。 计算节点规格 请根据界面提示选择需要使用的规格。 计算节点个数 设置当前版本模型的实例个
“公共资源池”:提供公共的大规模计算集群,资源按作业隔离。您可以按需选择不同的资源类型。 “专属资源池”:提供独享的计算资源,不与其他用户共享,更加高效。使用专属资源池需要在ModelArts创建专属资源池。 计算节点规格 请根据界面提示选择需要使用的规格。 计算节点个数 设置当前版本模型的实例个
GiB”,适合纯CPU类型的负载运行的模型。 如果资源池选择专属资源池,勾选自己在ModelArts创建的专属资源池。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。
“公共资源池”:提供公共的大规模计算集群,资源按作业隔离。您可以按需选择不同的资源类型。 “专属资源池”:提供独享的计算资源,不与其他用户共享,更加高效。使用专属资源池需要在ModelArts创建专属资源池。 计算节点规格 请根据界面提示选择需要使用的规格。 计算节点个数 设置当前版本模型的实例个
服务自动停止 设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。
GiB”,适合纯CPU类型的负载运行的模型。 如果资源池选择专属资源池,勾选自己在ModelArts创建的专属资源池。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。
GiB”,适合纯CPU类型的负载运行的模型。 如果资源池选择专属资源池,勾选自己在ModelArts创建的专属资源池。 计算节点个数 设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 当新建应用时,服务部署方式选择“在线部署”时,设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 当新建应用时,服务部署方式选择“在线部署”时,设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。
设置当前版本模型的实例个数。如果节点个数设置为1,表示后台的计算模式是单机模式;如果节点个数设置大于1,表示后台的计算模式为分布式的。请根据实际编码情况选择计算模式。 服务自动停止 当新建应用时,服务部署方式选择“在线部署”时,设置服务自动停止的时间,在线服务运行状态在所选的时间点后自动停止,同时在线服务也停止计费。
申请公测操作完成后,单击“前往我的公测”,进入“我的公测”页面。当“审批状态”显示为“审批通过”时,表示您已经获得了该行业套件的公测权限。 申请行业套件的公测权限后,在ModelArts Pro控制台选择行业套件卡片并单击“进入套件”,即可进入行业套件的控制台。 例如单击自然语言处理套件卡片的“进入套件”,即可进入自然语言处理套件的控制台。
Pro 提供的原子组件(Atom)灵活编排新的行业工作流。基于AI 市场,用户还可以相互分享不同行业场景的行业AI 工作流。ModelArts Pro 以“授人以渔”的方式助力企业构建AI 能力,赋能不同行业的AI 应用开发者,让AI 变得触手可及。 与ModelArts的关系 ModelArts
HiLens套件 HiLens为端云协同AI应用开发平台,提供简单易用的开发框架、开箱即用的开发环境、丰富的AI技能市场和云上管理平台,帮助用户高效开发多模态AI技能,并将其快速部署到端侧计算设备。 HiLens套件提供可训练技能模板开发技能,无需代码,只需自主上传训练数据,快速
待新建的数据集存储至OBS的位置。 单击“数据集输出位置”右侧的“修改”,在弹出的“数据集输出位置”对话框中,选择“OBS桶”和“文件夹”,然后单击“确定”。 选择步骤1:准备数据中提前创建好的输出数据集的OBS路径“mapro-vison/data-out”。 勾选已上传的数据集。 由于本样例上传的数
训练得到模型之后,整个开发过程还不算结束,需要对模型进行评估和考察。一次性很难获得一个满意的模型,需要反复的调整算法、数据,不断评估训练生成的模型。 一些常用的指标,如精准率、召回率、F1值等,能帮助您有效的评估,最终获得一个满意的模型。 前提条件 已在视觉套件控制台选择“零售商品识别工作流”新建应用,并训练模型,详情请见训练模型。
待新建的数据集存储至OBS的位置。 单击“数据集输出位置”右侧的“修改”,在弹出的“数据集输出位置”对话框中,选择“OBS桶”和“文件夹”,然后单击“确定”。 选择步骤1:准备数据中提前创建好的输出数据集的OBS路径“mapro-nlp/data-out”。 勾选已上传的数据集。
与ModelArts的关系 ModelArts Pro底层依托一站式AI 开发管理平台ModelArts 提供的领先算法技术,保证AI 应用开发的高效和推理结果的准确,同时减少人力投入。ModelArts的更多信息请参见AI开发平台Modelarts。 与华为HiLens的关系 ModelArts
ModelArts与ModelArts Pro的区别 ModelArts是一站式AI开发管理平台,提供领先算法技术,保证AI应用开发的高效和推理结果的准确,同时减少人力投入。ModelArts致力于底层模型专业开发、调参等。 ModelArts Pro根据预置工作流生成指定场景模