检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
sh 训练脚本后,脚本检查是否已经完成数据集预处理的过程。 如果已完成数据集预处理,则直接执行预训练任务。如果未进行数据集预处理,则会自动执行 scripts/llama2/1_preprocess_data.sh 。 预训练数据集预处理参数说明 预训练数据集预处理脚本scrip
b.sh训练脚本后,脚本检查是否已经完成数据集预处理。 如果已完成数据集预处理,则直接执行预训练任务。如果未进行数据集预处理,则会自动执行 scripts/llama2/1_preprocess_data.sh 。 预训练数据集预处理参数说明 预训练数据集预处理脚本 script
b.sh训练脚本后,脚本检查是否已经完成数据集预处理。 如果已完成数据集预处理,则直接执行预训练任务。如果未进行数据集预处理,则会自动执行 scripts/llama2/1_preprocess_data.sh 。 预训练数据集预处理参数说明 预训练数据集预处理脚本 script
信息、底层NPU算子信息、以及算子内存占用信息等,可以全方位分析PyTorch训练时的性能状态。 录制命令如下: 在启动训练脚本基础:步骤三 启动训练脚本 新加DO_PROFILER=1和PROF_SAVE_PATH=/save_path参数,单机启动举例说明: PROF_ENABLE=1
_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图6所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图6所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
sh 训练脚本后,脚本检查是否已经完成数据集预处理的过程。 如果已完成数据集预处理,则直接执行预训练任务。如果未进行数据集预处理,则会自动执行 scripts/llama2/1_preprocess_data.sh 。 预训练数据集预处理参数说明 预训练数据集预处理脚本scrip
修改tokenizer目录下面modeling_qwen.py文件的第38和39行,修改后如图3所示。 图3 修改Qwen tokenizer文件 父主题: 训练脚本说明
g_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
g_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
g_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
g_qwen.py文件,具体位置可根据上下代码信息进行查找,修改后如图6所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
l) 启动脚本,用法无切换,一般就是到达执行目录,然后python xxx.py。 训练结果、日志、checkpoints上传。(本地使用硬盘挂载或者docker cp,在ModelArts上使用OBSutil) 可以用一个run脚本把整个流程包起来。run.sh脚本的内容可以参考如下示例:
_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图6所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
g_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明
作环境中的步骤3。 cp -f config.json {work_dir}/tokenizers/falcon-11B/ 父主题: 训练脚本说明
作环境中的步骤3。 cp -f config.json {work_dir}/tokenizers/falcon-11B/ 父主题: 训练脚本说明
attention_mask is not None # attention_mask = ~attention_mask 样例图: 父主题: 训练脚本说明
attention_mask is not None # attention_mask = ~attention_mask 样例图: 父主题: 训练脚本说明
g_qwen.py文件,具体位置可根据上下文代码信息进行查找,修改后如图所示。 图6 修改Qwen tokenizer文件 父主题: 训练脚本说明