AI开发平台MODELARTS-预训练数据处理:Alpaca数据处理具体操作

时间:2024-11-05 09:54:19

Alpaca数据处理具体操作

Alpaca数据处理具体操作步骤如下:

  1. 创建数据处理后的输出目录/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/。
    cd /home/ma-user/ws/  #进入容器工作目录
    mkdir -p processed_for_ma_input/BaiChuan2-13B/data/pretrain
  2. 将获取到的Alpaca预训练数据集传到上一步创建的目录中。如还未下载数据集,请参考准备数据获取。
  3. 进入“/home/ma-user/ws/6.3.904-Ascend/llm_train/AscendSpeed/ModelLink/”目录,在代码目录中执行preprocess_data.py脚本处理数据。
    此处提供一段实际的数据处理代码示例如下。
    #加载ascendspeed及megatron模型:
    export PYTHONPATH=$PYTHONPATH:/home/ma-user/ws/6.3.904-Ascend/llm_train/AscendSpeed/AscendSpeed
    export PYTHONPATH=$PYTHONPATH:/home/ma-user/ws/6.3.904-Ascend/llm_train/AscendSpeed/ModelLink
    #进入到ModelLink目录下:
    cd /home/ma-user/ws/6.3.904-Ascend/llm_train/AscendSpeed/ModelLink/ 
    #执行以下命令:
    python ./tools/preprocess_data.py \
     --input /home/ma-user/ws/training_data/train-00000-of-00001-a09b74b3ef9c3b56.parquet \
     --tokenizer-name-or-path /home/ma-user/ws/tokenizers/BaiChuan2-13B \
     --output-prefix /home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/alpaca \
     --workers 8 \
     --log-interval 1000 \
     --seq-length 4096 \
     --tokenizer-type PretrainedFromHF
  4. 数据处理完后,在/home/ma-user/ws/processed_for_ma_input/BaiChuan2-13B/data/pretrain/目录下生成alpaca_text_document.bin和alpaca_text_document.idx文件。
support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1918.html