AI开发平台MODELARTS-预训练任务:Step1 配置预训练超参
Step1 配置预训练超参
预训练脚本llama2.sh,存放在“xxx-Ascend/llm_train/AscendSpeed/scripts/llama2”目录下。训练前,可以根据实际需要修改超参配置。
参数 |
示例值 |
参数说明 |
---|---|---|
DATASET_PATH |
/home/ma-user/ws/processed_for_ma_input/Llama2-70B/data/pretrain/alpaca_text_document |
必填。训练时指定的输入数据路径。一般为数据地址/处理后的数据前缀名,不加文件类型后缀。 请根据实际规划修改。 |
TOKENIZER_PATH |
/home/ma-user/ws/tokenizers/Llama2-70B/tokenizer.model |
必填。加载tokenizer时,tokenizer存放地址。 请根据实际规划修改。 |
MODEL_TYPE |
70B |
必填。表示模型加载类型,根据实际填写7B、13B或70B。 |
TRAIN_ITERS |
200 |
非必填。表示训练迭代周期,根据实际需要修改。 |
MBS |
2 |
非必填。表示流水线并行中一个micro batch所处理的样本量。在流水线并行中,为了减少气泡时间,会将一个step的数据切分成多个micro batch。 该值与TP和PP以及模型大小相关,可根据实际情况进行调整。默认值为2。取值默认值如下:
|
GBS |
1024 |
非必填。表示训练中所有机器一个step所处理的样本量。影响每一次训练迭代的时长。取值默认值:
|
TP |
8 |
非必填。表示张量并行。默认值为8,取值建议:
|
PP |
8 |
非必填。表示流水线并行。默认值为8,取值建议:
|
RUN_TYPE |
pretrain |
必填。表示训练类型,根据实际训练任务类型选择。取值说明:
|
MASTER_ADDR |
xx.xx.xx.xx |
多机必填,单机忽略;指定主节点IP地址,多台机器中需要指定一个节点IP为主节点IP。 一般指定第一个节点IP为主节点IP。 |
NNODES |
8 |
多机必填,单机忽略;节点总数,单机写1,双机写2,8机写8。 |
NODE_RANK |
0 |
多机必填,单机忽略;节点序号,当前节点ID,一般从0开始,单机默认是0。以8机训练为例,节点ID依次为(0 1 2 3 4 5 6 7);一般ID为0的节点设置为主节点IP。 |
WORK_DIR |
/home/ma-user/ws |
非必填。容器的工作目录。训练的权重文件保存在此路径下。默认值为:/home/ma-user/ws。 |
- ModelArts模型训练_超参搜索简介_超参搜索算法
- ModelArts分布式训练_分布式训练介绍_分布式调测
- TMS开发_金蝶TMS系统_TMS技术系统_信息化管理_视频
- AI训练加速存储_高性能数据存储_AI数据存储内存不足怎么办
- ModelArts模型训练_创建训练作业_如何创建训练作业
- 华为云ModelArts_ModelArts开发_AI全流程开发
- ModelArts推理部署_纳管Atlas 500_边缘服务-华为云
- ModelArts自定义镜像_自定义镜像简介_如何使用自定义镜像
- 华为云盘古大模型_华为云AI大模型_盘古人工智能
- ModelArts是什么_AI开发平台_ModelArts功能