检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
描述 模型的简要描述。 填写元模型来源及其相关参数。当“元模型来源”选择“从容器镜像中选择”时,其相关的参数配置请参见表2。 图1 从容器镜像中选择模型 表2 元模型来源参数说明 参数 说明 “容器镜像所在的路径” 单击从容器镜像中导入模型的镜像,其中,模型均为Image类型,且
py执行预检。 msprobe -f pytorch run_ut -api_info ./dump.json 这里-api_info指定的是步骤2导出的dump.json文件,表示整网计算过程中API的输入输出情况。执行完成run_ut命令之后将输出api_precision_comp
1+cu111-cp37-cp37m-linux_x86_64.whl “+”符号的URL编码为“%2B”,在上述网站中搜索目标文件名时,需要将原文件名中的“+”符号替换为“%2B”。 例如“torch-1.8.1%2Bcu111-cp37-cp37m-linux_x86_64.whl”。 下载Miniconda3安装文件。
obs:object:PutObjectAcl obs:object:ModifyObjectMetaData 使用OBS桶中的数据集运行训练作业。 按需配置。 委托 表2 训练作业所需委托 业务场景 依赖的服务 委托授权项 说明 配置建议 训练作业 OBS obs:bucket:ListBucket obs:object:GetObject
步骤三:使用订阅模型部署在线服务 模型订阅成功后,可将此模型部署为在线服务 在展开的版本列表中,单击“部署 > 在线服务”跳转至部署页面。 图2 部署模型 在部署页面,参考如下说明填写关键参数。 “名称”:自定义一个在线服务的名称,也可以使用默认值,此处以“商超商品识别服务”为例。 “资源池”:选择“公共资源池”。
modelarts-model-server.conf 准备nginx.conf文件内容如下: user ma-user 100; worker_processes 2; pid /home/ma-user/nginx.pid; include /etc/nginx/modules-enabled/*.conf;
的参数配置请参见表2。 针对从OBS导入的元模型,ModelArts要求根据模型包规范,编写推理代码和配置文件,并将推理代码和配置文件放置元模型存储的“model”文件夹下。如果您选择的目录下不符合模型包规范,将无法创建模型。 图1 从OBS中选择元模型 表2 元模型来源参数说明
并联系技术支持进行处理。 若选择了重部署修复方式,实例会立即关机并迁移到新服务器,本地盘数据会被清空,请提前做好业务迁移和数据备份。 图2 修复节点 授权运维 华为云技术支持在故障定位和性能诊断时,部分运维操作需要用户授权才可进行。您可在资源池详情页的节点页签下,找到对应节点,在操作列单击“更多
选择“我的订阅”页签,进入个人订阅的模型列表。 在模型列表选择需要推送的模型,单击“应用控制台”列的服务名称将模型推送至不同应用控制台。 图2 选择应用控制台 如果订阅的是ModelArts模型,在弹出的“选择云服务区域”页面选择ModelArts所在的云服务区域,单击“确定”跳转
迁移过程使用工具概览 基础的开发工具在迁移的预置镜像和开发环境中都已经进行预置,用户原则上不需要重新安装和下载,如果预置的版本不满足要求,用户可以执行下载和安装与覆盖操作。 模型自动转换评估工具Tailor 为了简化用户使用,ModelArts提供了Tailor工具,将模型转换、
型导入至ModelArts中,创建为AI应用,进行统一管理。 1、如果您是在ModelArts中训练得到的模型,可直接从训练中导入模型。 2、如果您在本地或其他平台训练得到模型,可先将模型上传至OBS,再从OBS中导入模型。 从OBS导入元模型(手动配置) 从训练中选择元模型 使用自定义镜像创建AI应用
设置算法启动方式(预置框架+自定义) 图2 使用预置框架+自定义镜像创建算法 需根据实际算法代码情况设置“镜像”、“代码目录”和“启动文件”。选择的预置框架和编写算法代码时选择的框架必须一致。例如编写算法代码使用的是TensorFlow,则在创建算法时也要选择TensorFlow。 表2 使用预置框架+自定义镜像创建算法
delArts服务声明》”,然后单击“创建”。 完成配置后,在ModelArts控制台的权限管理列表,可查看到此账号的委托配置信息。 步骤2:订阅模型 “商超商品识别”的模型共享在AI Gallery中。您可以前往AI Gallery,免费订阅此模型。 单击案例链接商超商品识别,进入模型详情页。
会被删除。 查看训练效果 启动模型微调任务后,在微调大师列表单击操作列的“任务详情”,在弹窗中选择“指标效果”页签,可以查看训练效果。 表2 训练效果的指标介绍 指标名称 指标说明 NPU/GPU利用率 在训练过程中,机器的NPU/GPU占用情况(横坐标时间,纵坐标占用率)。 显存利用率
IAM子用户:选择指定的IAM子用户,给指定的IAM子用户配置委托授权。 图1 选择IAM子用户 联邦用户:输入联邦用户的用户名或用户ID。 图2 选择联邦用户 委托用户:选择委托名称。使用账号A创建一个权限委托,在此处将该委托授权给账号B拥有的委托。在使用账号B登录控制台时,可以在控
W8A16量化 什么是W8A16量化 使用W8A16的量化不仅可以保证精度在可接受的范围内,同时也有一定的性能收益。 约束限制 只支持GPTQ W8A16 perchannel量化,只支持desc_act=false。 GPTQ W8A16量化支持的模型请参见支持的模型列表。 步骤一:量化模型权重
String 工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 通过调用IAM服务获取
policy 节点执行的policy。 否 StepPolicy depend_steps 依赖的节点列表。 否 Step或者Step的列表 表2 CreateDatasetInput 属性 描述 是否必填 数据类型 name 数据集创建节点的输入名称,命名规范(只能包含英文字母、数字
弹性集群Cluster”,进入Lite资源池列表页中,单击Lite Cluster资源池名称,可以进入到Lite Cluster资源池详情页中查看更多信息。 图2 查看Lite Cluster资源池基本信息 管理Lite Cluster资源池标签 通过给资源池添加标签,可以标识云资源,便于快速搜索资源池。
署模型或应用的流水线工具。在机器学习的场景中,流水线可能会覆盖数据标注、数据处理、模型开发/训练、模型评估、应用开发、应用评估等步骤。 图2 Workflow 区别于传统的机器学习模型构建,开发者可以使用Workflow开发生产流水线。基于MLOps的概念,Workflow会提供