检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
成训练模型。如果未生成model文件夹或者训练模型,可能是训练输入数据不完整导致,请检查训练数据上传是否完整,并重新训练。 图4 训练输出路径 Step5 推理部署 模型训练完成后,可以创建模型,将模型部署为在线服务。 在ModelArts管理控制台,单击左侧导航栏中的“模型管理
课程学习 前提条件 用户具有课程发布权限 操作步骤-电脑端 登录ISDP系统,选择“作业人员->学习管理->我的学习”并进入,查看当前可以学习的课程。 图1 我的学习入口 在“我的学习”的页面,点击每个具体的课程卡片,进入课程详情页面。可以按学习状态(未完成/已完成)、学习类型(
创建模型训练工程 创建工程 编辑训练代码(简易编辑器) 编辑训练代码(WebIDE) 模型训练 MindSpore样例 父主题: 模型训练
模型训练新建模型训练工程的时候,选择通用算法有什么作用? 通用算法目前包括:分类算法、拟合算法、聚类算法、其他类型。用户选择不同的通用算法类型,并勾选“创建入门模型训练代码”,便可以自动生成对应类型的代码模版。 父主题: 模型训练
ague_id}/fl-jobs/{job_id} 保存横向联邦学习作业 响应示例 无 状态码 状态码 描述 200 保存横向联邦学习作业成功 401 操作无权限 500 内部服务器错误 父主题: 可信联邦学习作业管理
统将自动修复异常或隔离节点,并重启训练作业,提高训练成功率。为了避免丢失训练进度、浪费算力。此功能已适配断点续训练。 图2 开启故障重启 断点续训练是通过checkpoint机制实现。checkpoint机制是在模型训练的过程中,不断地保存训练结果(包括但不限于EPOCH、模型权
nizer文件,具体请参见训练tokenizer文件说明。 Step2 创建预训练任务 创建训练作业,并自定义名称、描述等信息。选择自定义算法,启动方式自定义,以及上传的镜像。训练脚本中会自动执行训练前的权重转换操作和数据处理操作。 图1 选择镜像 训练作业启动命令中输入: cd
会话对象,初始化方法请参考Session鉴权。 job_id 是 String 训练作业的id,可通过创建训练作业生成的训练作业对象查询,如"job_instance.job_id",或从查询训练作业列表的响应中获得。 无成功响应参数。 表2 调用训练接口失败响应参数 参数 类型 描述 error_msg
用户也可以通过模型训练服务超参配置,覆盖默认值。 单击“创建”,弹出“创建训练”对话框。 配置MindSpore样例训练工程参数,如图1所示。 图1 创建MindSpore样例训练工程 单击“确定”。 进入模型训练工程详情界面,如图2所示。 图2 模型训练工程详情界面 单击界面
使用Moodle搭建在线学习系统 应用场景 Moodle是一个面向全球用户的开源在线教育系统,它被用于在线学习等场景。Moodle应用镜像基于Ubuntu 22.04操作系统,采用Docker部署,已预装Moodle应用以及其需要的运行环境。本节介绍如何安装部署Moodle应用。
附录:指令微调训练常见问题 问题1:在训练过程中遇到NPU out of memory 解决方法: 将yaml文件中的per_device_train_batch_size调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考各个模型深度学习训练加速框
如何获得微认证的学习材料? 华为云开发者学堂提供在线的视频课程,对应课程的实验手册可以在微认证详情页面上获取。 父主题: 微认证课程学习常见问题
String 训练作业选择的引擎版本,请参考查询引擎规格列表。 user_image_url 否 String 自定义镜像训练作业的自定义镜像的SWR-URL。 user_command 否 String 自定义镜像训练作业的启动命令。 log_url 否 String 训练作业日志的
Finetune训练 本章节介绍SDXL&SD 1.5模型的Finetune训练过程。Finetune是指在已经训练好的模型基础上,使用新的数据集进行微调(fine-tuning)以优化模型性能。 启动SD1.5 Finetune训练服务 使用ma-user用户执行如下命令运行训练脚本。 sh
在ModelArts上训练模型如何配置输入输出数据? ModelArts支持用户上传自定义算法创建训练作业。上传自定义算法前,请完成创建算法并上传至OBS桶。创建算法请参考开发用于预置框架训练的代码。创建训练作业请参考创建训练作业指导。 解析输入路径参数、输出路径参数 运行在Mo
加可靠,可以适当增大学习率。 以下对resnet18在cifar10数据集上的分类任务,给出了单机训练和分布式训练改造(DDP)的代码。直接执行代码为多节点分布式训练且支持CPU分布式和GPU分布式,将代码中的分布式改造点注释掉后即可进行单节点单卡训练。 训练代码中包含三部分入参
使用自动学习实现预测分析 准备预测分析数据 创建预测分析项目 训练预测分析模型 部署预测分析服务 父主题: 使用自动学习实现零代码AI开发
LoRA训练 本章节介绍SDXL&SD 1.5模型的LoRA训练过程。LoRA训练是指在已经训练好的模型基础上,使用新的数据集进行LoRA微调以优化模型性能的过程。 训练前需要修改数据集路径、模型路径。脚本里写到datasets路径即可。 run_lora_sdxl中的vae路径要准确写到sdxl_vae
使用模型训练服务快速训练算法模型 本文档以硬盘故障检测的模型训练为例,介绍模型训练服务使用的全流程,包括数据集、特征工程、模型训练、模型管理和模型验证,使开发者快速熟悉模型训练服务。 操作流程 前提条件 订购模型训练服务 访问模型训练服务 创建项目 数据集 特征工程 模型训练 模型管理
LoRA训练 本章节介绍SDXL&SD 1.5模型的LoRA训练过程。LoRA训练是指在已经训练好的模型基础上,使用新的数据集进行LoRA微调以优化模型性能的过程。 启动SD1.5 LoRA训练服务 使用ma-user用户执行如下命令运行训练脚本。 sh diffusers_lora_train