AI开发平台MODELARTS-预训练任务:启动训练脚本

时间:2024-11-05 09:54:19

启动训练脚本

单机启动

以baichuan2-13b为例,单机训练启动样例命令如下,以自己实际为准。在/home/ma-user/ws/6.3.904-Ascend/llm_train/AscendSpeed/代码目录下执行。超参详解参考表1

MODEL_TYPE=13B  RUN_TYPE=pretrain DATA_PATH=/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/alpaca_text_document TOKENIZER_MODEL=/home/ma-user/ws/tokenizers/BaiChuan2-13B/tokenizer.model TRAIN_ITERS=200 MBS=1  GBS=16 TP=8 PP=1 WORK_DIR=/home/ma-user/ws sh scripts/baichuan2/baichuan2.sh

以上超参配置中,其中 MODEL_TYPE 、RUN_TYPE、DATA_PATH、TOKENIZER_MODEL为必填;TRAIN_ITERS、MBS、GBS、 TP、PP 、WORK_DIR为非必填,有默认值。

多机启动

以baichuan2-13b为例,多台机器执行训练启动命令如下。多机启动需要在每个节点上执行,以双机为例。超参详解参考表1

#第一台节点
MASTER_ADDR=xx.xx.xx.xx NNODES=2 NODE_RANK=0 MODEL_TYPE=13B  RUN_TYPE=pretrain DATA_PATH=
/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/alpaca_text_document TOKENIZER_MODEL=/home/ma-user/ws/tokenizers/BaiChuan2-13B/tokenizer.model  TRAIN_ITERS=200 MBS=2  GBS=32 TP=8 PP=2 WORK_DIR=/home/ma-user/ws sh scripts/baichuan2/baichuan2.sh
...
...
# 第二台节点 
MASTER_ADDR=xx.xx.xx.xx NNODES=2 NODE_RANK=1 MODEL_TYPE=13B  RUN_TYPE=pretrain DATA_PATH=
/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/alpaca_text_document TOKENIZER_MODEL=/home/ma-user/ws/tokenizers/BaiChuan2-13B/tokenizer.model  TRAIN_ITERS=200 MBS=2  GBS=32 TP=8 PP=2 sh scripts/baichuan2/baichuan2.sh

以上命令多台机器执行时,只有${NODE_RANK}:节点ID值不同,其他参数都保持一致。

其中MASTER_ADDR、NODE_RANK、MODEL_TYPE 、RUN_TYPE、DATASET_PATHDATA_PATH、TOKENIZER_PATHTOKENIZER_MODEL为必填;TRAIN_ITERS、MBS、GBS、TP、PP、WORK_DIR为非必填,有默认值。

等待模型载入

执行训练启动命令后,等待模型载入,当出现“training”关键字时,表示开始训练。训练过程中,训练日志会在最后的Rank节点打印。

图1 等待模型载入

更多查看训练日志和性能操作,请参考查看日志和性能章节。

如果需要使用断点续训练能力,请参考断点续训练章节修改训练脚本。

support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1920.html