AI开发平台MODELARTS-LoRA微调训练:Step3 LoRA微调超参配置

时间:2024-11-05 09:54:19

Step3 LoRA微调超参配置

本章节介绍LoRA微调训练前的超参配置,可以根据实际需要修改。

LoRA微调训练脚本baichuan2.sh,存放在llm_train/AscendSpeed/script/baichuan2/目录下。训练前,可以根据实际需要配置超参配置。

微调任务配置,操作同预训练配置类似,不同点为RUN_TYPE类型和输入输出路径,微调还需要加载权重文件。

表1 LoRA微调超参配置

参数

示例值

参数说明

DATA_PATH

/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/finetune/alpaca_ft

必填。训练时指定的输入数据路径。一般为数据地址/处理后的数据前缀名,不加文件类型后缀。

请根据实际规划修改。

TOKENIZER_MODEL

/home/ma-user/ws/tokenizers/BaiChuan2-13B/

必填。加载tokenizer时,tokenizer存放地址。

请根据实际规划修改。

MODEL_TYPE

13B

必填。模型加载类型,默认为13B。

TRAIN_ITERS

1000

非必填。训练迭代周期。根据实际需要修改。默认值为1000。

MBS

1

非必填。流水线并行中一个micro batch所处理的样本量。在流水线并行中,为了减少气泡时间,会将一个step的数据切分成多个micro batch。

该值与TP和PP以及模型大小相关,可根据实际情况进行调整。

默认值1。建议值单机1,双机2。

GBS

16

非必填。默认值:16;训练中所有机器一个step所处理的样本量。影响每一次训练迭代的时长,建议值单机16,双机32。

TP

8

非必填。张量并行。默认值为8。

PP

1

非必填。表示流水线并行。建议值单机1,双机2。

RUN_TYPE

lora

必填。表示训练类型。lora表示LoRA微调。

MASTER_ADDR

localhost

多机必填。

单机忽略;指定主节点IP地址,多台机器中需要指定一个节点IP为主节点IP。

一般指定第一个节点IP为主节点IP。

NNODES

1

多机必填,单机忽略;,单机写1,双机写2。

NODE_RANK

0

多机必填,单机忽略;节点序号,当前节点ID,一般从0开始,单机默认是0。

CKPT_LOAD_DIR

/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/converted_weights

从 huggingface 格式转化为 magatron 格式的权重文件。

WORK_DIR

/home/ma-user/ws

非必填。容器的工作目录。训练的权重文件保存在此路径下。默认值为:/home/ma-user/ws。

support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1929.html