AI开发平台MODELARTS-指令监督微调训练任务:Step2 修改训练yaml文件配置
Step2 修改训练yaml文件配置
LlamaFactroy配置文件为yaml文件,启动训练前需修改yaml配置文件,yaml配置文件在代码目录下的{work_dir}/llm_train/LLaMAFactory/demo.yaml。修改详细步骤如下所示:
- 选择指令微调类型
- sft,复制sft_yaml样例模板内容覆盖demo.yaml文件内容。
- lora,复制lora_yaml样例模板内容覆盖demo.yaml文件内容。
- 修改yaml文件(demo.yaml)的参数如表1所示
表1 修改重要参数 参数
示例值
参数说明
model_name_or_path
/home/ma-user/ws/tokenizers/Qwen2-72B
必须修改。加载tokenizer与Hugging Face权重时存放目录绝对或相对路径。请根据实际规划修改。
template
qwen
必须修改。用于指定模板。如果设置为"qwen",则使用Qwen模板进行训练,模板选择可参照表1中的template列
output_dir
/home/ma-user/ws/Qwen2-72B/sft-4096
必须修改。指定输出目录。训练过程中生成的模型参数和日志文件将保存在这个目录下。用户根据自己实际要求适配。
per_device_train_batch_size
1
指定每个设备的训练批次大小
gradient_accumulation_steps
8
指定梯度累积的步数,这可以增加批次大小而不增加内存消耗。可根据自己要求适配
num_train_epochs
5
表示训练轮次,根据实际需要修改。一个Epoch是将所有训练样本训练一次的过程。可根据自己要求适配
cutoff_len
4096
文本处理时的最大长度,此处为4096,用户可根据自己要求适配。
dataset
identity,alpaca_en_demo
【可选】指定用于训练的数据集,数据集都放置在此处为identity,alpaca_en_demo表示使用了两个数据集,一个是 identity,一个是alpaca_en_demo。如选用定义数据请参考准备数据(可选)配置dataset_info.json文件
dataset_dir
/home/ma-user/ws/LLaMAFactory/LLaMA-Factory/data
【可选】自定义数据集dataset_info.json配置文件绝对路径;如使用自定义数据集,yaml配置文件需添加此参数。
- 是否选择加速深度学习训练框架Deepspeed,可参考表1选择不同的框架
- 是,选用ZeRO (Zero Redundancy Optimizer)优化器
- ZeRO-0,配置以下参数
deepspeed: examples/deepspeed/ds_z0_config.json
- ZeRO-1,配置以下参数,并复制ds_z1_config.json样例模板至工作目录/home/ma-user/LLaMAFactory/LLaMA-Factory/examples/deepspeed
deepspeed: examples/deepspeed/ds_z1_config.json
- ZeRO-2,配置以下参数
deepspeed: examples/deepspeed/ds_z2_config.json
- ZeRO-3,配置以下参数
deepspeed: examples/deepspeed/ds_z3_config.json
- ZeRO-0,配置以下参数
- 否,默认选用Accelerate加速深度学习训练框架,注释掉deepspeed参数。
- 是,选用ZeRO (Zero Redundancy Optimizer)优化器
- 是否使用固定句长
- 是,配置以下参数
packing: true
- 否,默认使用动态句长,注释掉packing参数。
- 是,配置以下参数
- 选用数据精度格式,以下参数二选一。
- bf16,配置以下参数
bf16: true
- fp16,配置以下参数
fp16: true
- bf16,配置以下参数
- 是否使用自定义数据集
- 如需其他配置参数,可参考表1按照实际需求修改