正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
import Estimator parameters = [] parameters.append({"name": "data_url", "value": data_local}) parameters.append({"name": "output_dir", "value": os
训练完成后,您可以单击“图像分类”节点上方的按钮,查看相关指标信息,如“准确率”、“评估结果”等。评估结果参数说明请参见表1。 图1 模型评估报告 表1 评估结果参数说明 参数名称 参数含义 说明 recall 召回率 被用户标注为某个分类的所有样本中,模型正确预测为该分类的样本比率,反映模型对正样本的识别能力。
图4 训练输出路径 步骤五:推理部署 模型训练完成后,可以创建AI应用,将AI应用部署为在线服务。 在ModelArts管理控制台,单击左侧导航栏中的“AI应用”,进入“自定义应用”页面,单击“创建应用”。 在“创建应用”页面,填写相关参数,然后单击“立即创建”。 在“元模型来源”中
订阅应用模型与云服务订阅AI应用的区别: 在管理控制台,模型管理所在位置不同。订阅应用统一管理在“AI应用>订阅应用”页面中,而云服务订阅AI应用管理在“AI应用>云服务订阅AI应用”页面中。 模型来源不同。订阅应用,模型来源于AI Gallery;云服务订阅AI应用,模型来源于其他AI服务开发的模型。
data以指定内容类型发送。默认值为“application/json”。 一般情况包括如下两种内容类型: “application/json”,发送json数据。 “multipart/form-data”,上传文件。 说明: 针对机器学习类模型,仅支持“application/json”
data以指定内容类型发送。默认值为“application/json”。 一般情况包括如下两种内容类型: “application/json”,发送json数据。 “multipart/form-data”,上传文件。 说明: 针对机器学习类模型,仅支持“application/json”
for each in element: array.append(element[each]) list_data.append(array) return list_data # predict
执行nvidia_smi + wapper + prettytable命令。 用户可以将GPU信息显示操作看作一个装饰器,在模型训练过程中就可以实时的显示GPU状态信息。 def gputil_decorator(func): def wrapper(*args, **kwargs):
Started server process [2878]INFO: Waiting for application startup. INFO: Application startup complete. INFO: Uvicorn running on
该示例为二分类的离散型数值,评估效果参数说明请参见表1。 不同类型标签列数据产生的评估结果说明请参见评估结果说明。 图1 模型评估报告 同一个自动学习项目可以训练多次,每次训练会注册一个新的AI应用一个版本。如第一次训练版本号为“0.0.1”,下一个版本为“0.0.2”。基于训练版本可以对训练模型进行管
wf.AlgorithmParameters(name="app_args", value=wf.Placeholder(name="app_args",
for each in element: array.append(element[each]) list_data.append(array) return list_data # predict
择“自定义”。 例如,当训练代码启动脚本在OBS路径为“obs://bucket-name/app/code/train.py”,创建作业时配置代码目录为“/bucket-name/app/code/”。则代码目录配置完成后,执行如下命令,那么“run_train.sh”将选中的
访问在线服务支持的认证方式 通过Token认证的方式访问在线服务 通过AK/SK认证的方式访问在线服务 通过APP认证的方式访问在线服务 父主题: 将模型部署为实时推理作业
/home/work/run_train.sh python /home/work/user-job-dir/app/mnist/mnist_softmax.py --data_url /home/work/user-job-dir/app/mnist_data", "gpu_type": "nvidia-v100"
“选择AI应用及配置” “AI应用来源” 根据您的实际情况选择“自定义应用”或者“订阅应用”。 “选择AI应用及版本” 选择状态“正常”的AI应用及版本。 “分流” 设置当前实例节点的流量占比,服务调用请求根据该比例分配到当前版本上。 如您仅部署一个版本的AI应用,请设置为10
删除AI应用 功能介绍 删除AI应用,根据AI应用ID删除指定AI应用,cascade取值为true时除了删除AI应用ID指定的AI应用,还会删除其他与指定AI应用同名不同版本的AI应用;默认只删除当前AI应用ID所对应的AI应用。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API
Notebook updateNotebook 删除NotebookApp NotebookApp deleteNotebookApp 切换CodeLab规格 NotebookApp updateNotebookApp 训练作业支持审计的关键操作列表 表3 训练作业支持审计的关键操作列表
模型转换,包含模型转换、优化和量化等。 应用集成。 针对转换的模型运行时应用层适配。 数据预处理。 模型编排。 模型裁剪。 精度校验。 精度对比误差统计工具。 自动化精度对比工具。 网络结构可视化工具。 性能调优。 性能测试。 性能调优三板斧。 性能分析与诊断。 迁移测试报告。 推理迁移验收表。 ModelArts开发环境
annotation_confidence = 0.8 annotated_by = "human" annotations_list.append( Annotation(name=annotation_name, type=annotation_type