AI开发平台MODELARTS-预训练超参配置
预训练超参配置
本章节介绍预训练前的超参配置,可以根据实际需要修改。
预训练脚本pretrain-llama2-13b.sh,存放在AscendCloud-3rdLLM-6.3.902/llm_train/AscendSpeed/scripts/llama2目录下。训练前,可以根据实际需要修改超参配置。
参数 |
值 |
参数说明 |
---|---|---|
DATA_PATH |
/home/ma-user/ws/datasets/alpaca/llama2-13B/alpaca_text_document |
必填。训练时指定的输入数据路径。一般为数据地址/处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 |
TOKENIZER_PATH |
/home/ma-user/ws/tokenizers/llama2-13b-hf |
必填。tokenizer保存地址。 |
SAVE_PATH |
$PWD/ckpt |
中间保存结果,包含训练日志。 |
SAVE_CKPT_PATH |
${SAVE_PATH}/ckpt-llama2-13b |
必填。训练ckpt保存地址。 |
MODEL_TYPE |
13B |
模型加载类型,默认为13B。 |
TRAIN_ITERS |
2000 |
训练迭代周期。根据实际需要修改。 |
MBS |
4 |
流水线并行中一个micro batch所处理的样本量。在流水线并行中,为了减少气泡时间,会将一个step的数据切分成多个micro batch。 默认值4。 |
GBS |
64 |
训练中所有机器一个step所处理的样本量。影响每一次训练迭代的时长,建议值单机64,双机128。 |
TP |
8 |
张量并行。 |
PP |
1 |
流水线并行。 |
lr |
0.00015 |
学习率,非必填,默认值3.0e-4 |
RUN_TYPE |
pretrain |
训练脚本类型:pretrain。 |
- ModelArts模型训练_超参搜索简介_超参搜索算法
- ModelArts分布式训练_分布式训练介绍_分布式调测
- ModelArts模型训练_创建训练作业_如何创建训练作业
- 华为云ModelArts_ModelArts开发_AI全流程开发
- ModelArts推理部署_纳管Atlas 500_边缘服务-华为云
- ModelArts模型训练_模型训练简介_如何训练模型
- ModelArts自定义镜像_自定义镜像简介_如何使用自定义镜像
- TMS开发_金蝶TMS系统_TMS技术系统_信息化管理_视频
- ModelArts是什么_AI开发平台_ModelArts功能
- ModelArts计费说明_计费简介_ModelArts怎么计费