AI开发平台MODELARTS-LoRA微调权重合并及转换:Step1 合并LoRA微调训练生成的权重文件

时间:2024-04-30 18:09:27

Step1 合并LoRA微调训练生成的权重文件

此步骤的目的是将LoRA微调训练时生成的SAVE_CKPT_PATH和MODEL_PATH权重文件合并在一起,形成完整的权重文件。SAVE_CKPT_PATH和MODEL_PATH的具体值参考LoRA微调超参配置
  1. 编辑LoRA权重合并脚本文件merge_lora_llama2_ptd_13B.sh,并修改配置。该脚本存放在“${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/scripts/tools/lora”目录下。
    把26-31行设置TP、PP、ORIGIN_CHECKPOINT_PATH、LORA_CHECKPOINT_PATH、VOCAB_FILE、MERGED_MODEL_SAVE_PATH移动至else外,同时设置:
    • ORIGIN_CHECKPOINT_PATH=${MA_JOB_DIR}/6.3.902-Ascend/tokenizers/llama2-13b-hf:设置为LoRA微调超参配置章节中的MODEL_PATH值。
    • LORA_CHECKPOINT_PATH=${MA_JOB_DIR}/6.3.902-Ascend/llm_train/AscendSpeed/ckpt/ckpt-llama2-13b-lora:设置为LoRA微调任务章节中的SAVE_CKPT_PATH值。
    • VOCAB_FILE=${MA_JOB_DIR}/6.3.902-Ascend/tokenizers/llama2-13b-hf:tokenizer文件路径。
    • MERGED_MODEL_SAVE_PATH=${MA_JOB_DIR}/6.3.902-Ascend/weight/llama2_13b_lora_merge/:输出合并后的权重路径。
    • TP=8:张量并行数,要与LORA微调时设置相同的参数。
    • PP=1:流水线并行数,要与LORA微调时设置相同的参数,单机建议值为1,双机建议为2。
  2. 设置执行命令。
    sh scripts/tools/lora/merge_lora_llama2_ptd_13B.sh

    并提交做作业。

support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1832.html