AI开发平台MODELARTS-LoRA微调训练:Step3 LoRA微调超参配置

时间:2024-11-05 09:54:16

Step3 LoRA微调超参配置

LoRA微调训练脚本llama2.sh,存放在xxx-Ascend/llm_train/AscendSpeed/scripts/llama2/目录下。训练前,可以根据实际需要修改超参配置。

微调任务配置,操作同预训练配置类似,不同点为RUN_TYPE类型不同,以及输入输出路径的配置的不同。

表1 LoRA微调超参配置

参数

参数说明

DATASET_PATH

/home/ma-user/ws/processed_for_ma_input/Llama2-70B/data/finetune/alpaca_ft

必填。训练时指定的输入数据路径。一般为数据地址/处理后的数据前缀名,不加文件类型后缀。

请根据实际规划修改。

TOKENIZER_PATH

/home/ma-user/ws/tokenizers/Llama2-70B

必填。加载tokenizer时,tokenizer存放地址。请根据实际规划修改。

MODEL_PATH

/home/ma-user/ws/processed_for_ma_input/Llama2-70B/converted_weights

必填。加载的权重文件路径。Step2 LoRA微调权重转换章节中将HuggingFace格式转化为Megatron格式的权重文件。

MODEL_TYPE

70B

必填。模型加载类型,根据实际填写7B、13B或70B。

TRAIN_ITERS

200

非必填。训练迭代周期。根据实际需要修改。

MBS

2

非必填。表示流水线并行中一个micro batch所处理的样本量。在流水线并行中,为了减少气泡时间,会将一个step的数据切分成多个micro batch。

该值与TP和PP以及模型大小相关,可根据实际情况进行调整。默认值为2。取值建议如下:

  • Llama2-7B:4
  • Llama2-13B:4
  • Llama2-70B:2

GBS

1024

非必填。表示训练中所有机器一个step所处理的样本量。影响每一次训练迭代的时长。取值默认值:

  • Llama2-7B:64
  • Llama2-13B:64
  • Llama2-70B:1024

TP

8

非必填。表示张量并行。默认值为8,取值建议:

  • Llama2-7B:8
  • Llama2-13B:8
  • Llama2-70B:8

PP

8

非必填。表示流水线并行。取值建议:

  • Llama2-7B:1,一般此值与运行节点数相等
  • Llama2-13B:1,一般此值与运行节点数相等
  • Llama2-70B:大于等于4,建议值为8,一般选用几台机器训练则值为几。

RUN_TYPE

lora

必填。表示训练类型,lora表示LoRA微调训练。

MASTER_ADDR

xx.xx.xx.xx

多机必填,单机忽略;指定主节点IP地址,多台机器中需要指定一个节点IP为主节点IP。

一般指定第一个节点IP为主节点IP。

NNODES

8

多机必填,单机忽略;节点总数,单机写1,双机写2,8机写8。

NODE_RANK

0

多机必填,单机忽略;节点序号,当前节点ID,一般从0开始,单机默认是0。以8机训练为例,节点ID依次为(0 1 2 3 4 5 6 7);一般ID为0的节点设置为主节点IP。

WORK_DIR

/home/ma-user/ws

非必填。容器的工作目录。训练的权重文件保存在此路径下。默认值为:/home/ma-user/ws。

support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1615.html