检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
预训练 预训练数据处理 预训练任务 断点续训练 查看日志和性能 父主题: LLama2系列模型基于Lite Server适配PyTorch NPU训练指导(6.3.904)
LoRA微调训练 本章节以Qwen-14B为例,介绍LoRA微调训练的全过程。对于Qwen-7B和Qwen-72B,操作过程与Qwen-14B相同,只需修改对应参数即可。 Step1 LoRA微调数据处理 训练前需要对数据集进行预处理,转化为.bin和.idx格式文件,以满足训练要求。
SFT全参微调 SFT全参微调数据处理 SFT全参微调权重转换 SFT全参微调超参配置 SFT全参微调任务 父主题: Baichuan2-13B模型基于DevServer适配PyTorch NPU训练指导(6.3.904)
准备数据 本教程使用到的训练数据集是Alpaca数据集。您也可以自行准备数据集。 Alpaca数据 本教程使用到的训练数据集是Alpaca数据集。Alpaca是由OpenAI的text-davinci-003引擎生成的包含52k条指令和演示的数据集。这些指令数据可以用来对语言模型
LoRA微调训练 本章节以Baichuan2-13B为例,介绍LoRA微调训练的全过程。 Step1 LoRA微调数据处理 训练前需要对数据集进行预处理,转化为.bin和.idx格式文件,以满足训练要求。 LoRA微调训练与SFT微调使用同一个数据集,如果已经在SFT微调时处理过
准备代码 本教程中用到的数据和代码如下表所示,请提前准备好。 获取数据及代码 表1 准备代码 代码包名称 代码说明 下载地址 AscendCloud-3rdLLM-6.3.904-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了本教程中使用到的模型训练代码、推理部
查看日志和性能 查看日志 训练过程中,训练日志会在最后的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,可以在${SAVE_PATH}/logs路径下获取。 本示例日志路径为/home/ma-user/ws/saved_dir_for_ma_output/Qwen-14B/logs
预训练任务 配置预训练脚本qwen.sh中的超参,并执行预训练任务。 这里以Qwen-14B为例,对于Qwen-7B和Qwen-72B,操作过程与Qwen-14B相同,只需修改对应参数即可。 预训练超参配置 预训练脚本qwen.sh,存放在“xxx-Ascend/llm_trai
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: GLM3-6B模型基于DevServer适配PyTorch NPU训练指导(6.3.904)
准备环境 本文档中的模型运行环境是ModelArts Lite的Cluster或DevServer。请参考本文档要求准备资源环境。 资源规格要求 计算规格:对于Qwen-7B和Qwen-14B单机训练需要使用单机8卡,多机训练需要使用2机16卡。对于Qwen-72B至少需要5机4
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: LLama2系列模型基于Lite Server适配PyTorch NPU训练指导(6.3.904)
准备数据 本教程使用到的训练数据集是Alpaca数据集。您也可以自行准备数据集。 Alpaca数据 本教程使用到的训练数据集是Alpaca数据集。Alpaca是由OpenAI的text-davinci-003引擎生成的包含52k条指令和演示的数据集。这些指令数据可以用来对语言模型
预训练 预训练数据处理 预训练超参配置 预训练任务 断点续训练 查看日志和性能 父主题: Baichuan2-13B模型基于DevServer适配PyTorch NPU训练指导(6.3.904)
准备代码 本教程中用到的代码和权重文件如下表所示,请提前准备,并按要求在容器中创建工作目录。 获取代码和权重文件 表1 准备代码 代码包名称 代码说明 下载地址 AscendCloud-3rdLLM-6.3.904-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了
准备镜像 准备训练模型适用的容器镜像,包括获取镜像地址,了解镜像中包含的各类固件版本,配置物理机环境操作。 镜像地址 本教程中用到的基础镜像地址和配套版本关系如下表所示,请提前了解。 表1 基础镜像地址 镜像用途 镜像地址 基础镜像(训练和推理通用) 西南-贵阳一:swr.cn-southwest-2
准备环境 本文档中的模型运行环境是ModelArts Lite的DevServer。请参考本文档要求准备DevServer机器。 资源规格要求 计算规格:单机训练需要使用单机8卡,多机训练需要使用2机16卡。推理部署如果是376T规格,推荐使用单机单卡;280T规格推荐使用单机2卡。
准备数据 本教程使用到的训练数据集是Alpaca数据集。您也可以自行准备数据集。 Alpaca数据 本教程使用到的训练数据集是Alpaca数据集。Alpaca是由OpenAI的text-davinci-003引擎生成的包含52k条指令和演示的数据集。这些指令数据可以用来对语言模型
断点续训练 断点续训练是指因为某些原因导致训练作业还未完成就被中断,下一次训练可以在上一次的训练基础上继续进行。这种方式对于需要长时间训练的模型而言比较友好。 断点续训练是通过checkpoint机制实现。checkpoint机制是在模型训练的过程中,不断地保存训练结果(包括但不
SFT微调权重转换 微调训练前需将HuggingFace格式权重转换为Megatron格式后再进行SFT微调训练。 本章节主要介绍如何将HuggingFace权重转换为Megatron格式。此处的HuggingFace权重文件和转换操作结果同时适用于SFT微调和LoRA微调训练。
准备代码 本教程中用到的训练推理代码和如下表所示,请提前准备好。 获取数据及代码 表1 准备代码 代码包名称 代码说明 下载地址 AscendCloud-3rdLLM-6.3.904-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了本教程中使用到的模型训练代码、推