AI开发平台MODELARTS-断点续训练:断点续训练操作过程

时间:2024-11-05 09:54:19

断点续训练操作过程

baichuan2-13b的断点续训脚本baichuan2.sh,存放在“6.3.904-Ascend/llm_train/AscendSpeed/scripts/baichuan2”目录下。

  1. 执行命令如下,进入AscendSpeed代码目录。
    cd /home/ma-user/ws/6.3.904-Ascend/llm_train/AscendSpeed/  
  2. 在AscendSpeed代码目录下执行断点续训练脚本。
    单机启动
    MODEL_TYPE=13B  RUN_TYPE=retrain DATA_PATH=
    /home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/retrain/alpaca_text_document TOKENIZER_MODEL=/home/ma-user/ws/tokenizers/BaiChuan2-13B/tokenizer.model CKPT_LOAD_DIR=/home/ma-user/ws/saved_dir_for_ma_output/BaiChuan2-13B/pretrain TRAIN_ITERS=300 MBS=1  GBS=16 TP=8 PP=1 sh scripts/baichuan2/baichuan2.sh
    
    多机启动
    以baichuan2-13b为例,多台机器执行训练启动命令如下。多机启动需要在每个节点上执行,已双机为例。
    #第一台节点
    MASTER_ADDR=xx.xx.xx.xx NNODES=2 NODE_RANK=0 MODEL_TYPE=13B  RUN_TYPE=retrain DATA_PATH=/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/alpaca_text_document TOKENIZER_MODEL=/home/ma-user/code/model/Baichuan2-13B-Chat/tokenizer.model CKPT_LOAD_DIR=/home/ma-user/ws/saved_dir_for_ma_output/BaiChuan2-13B/pretrain TRAIN_ITERS=300 MBS=2  GBS=32 TP=8 PP=2 sh scripts/baichuan2/baichuan2.sh
    ...
    ...
    # 第二台节点 
    MASTER_ADDR=xx.xx.xx.xx NNODES=2 NODE_RANK=1 MODEL_TYPE=13B  RUN_TYPE=retrain DATA_PATH=/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/alpaca_text_document TOKENIZER_MODEL=/home/ma-user/ws/tokenizers/BaiChuan2-13B/tokenizer.model CKPT_LOAD_DIR=/home/ma-user/ws/saved_dir_for_ma_output/BaiChuan2-13B/pretrain TRAIN_ITERS=300 MBS=2  GBS=32 TP=8 PP=2 sh scripts/baichuan2/baichuan2.sh

    以上命令多台机器执行时,只有${NODE_RANK}:节点ID值不同,其他参数都保持一致。

    其中MASTER_ADDR、NODE_RANK、MODEL_TYPE 、RUN_TYPE、DATA_PATH、TOKENIZER_MODEL、CKPT_LOAD_DIR为必填;TRAIN_ITERS、MBS、GBS、TP、PP、WORK_DIR为非必填,有默认值。

    图1 保存的ckpt

  3. 可以参考查看日志和性能操作,查看断点续训练日志和性能。
support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1921.html