AI开发平台MODELARTS-在推理生产环境中部署推理服务:Step1 准备模型文件和权重文件

时间:2024-11-12 16:42:23

Step1 准备模型文件和权重文件

在OBS桶中,创建文件夹,准备模型权重文件、推理启动脚本run_vllm.sh及SSL证书。此处以chatglm3-6b为例。

  • 模型权重文件获取地址请参见表1
    • 若需要部署量化模型,请参考推理模型量化在Notebook中进行权重转换,并将转换后的权重上传至OBS中。
    • 权重文件夹不要以"model"命名,若以"model"命名会导致后续创建AI应用报错。
  • 推理启动脚本run_vllm.sh制作请参见•创建推理脚本文件run_vllm.sh
  • SSL证书制作包含cert.pem和key.pem,需自行生成。生成方式请参见•通过openssl创建SSLpem证书
图1 准备模型文件和权重文件
  • 创建推理脚本文件run_vllm.sh

    run_vllm.sh脚本示例如下。

    • 通过vLLM服务API接口启动服务
      source /home/ma-user/.bashrc
      export ASCEND_RT_VISIBLE_DEVI CES =${ASCEND_RT_VISIBLE_DEVICES}
      python -m vllm.entrypoints.api_server --model ${model_path} \
      --ssl-keyfile="/home/mind/model/key.pem" \
      --ssl-certfile="/home/mind/model/cert.pem" \
      --max-num-seqs=256 \
      --max-model-len=4096 \
      --max-num-batched-tokens=4096 \
      --dtype=float16 \
      --tensor-parallel-size=1 \
      --block-size=128 \
      --host=0.0.0.0 \
      --port=8080 \
      --gpu-memory-utilization=0.9 \
      --trust-remote-code 
    • 通过OpenAI服务API接口启动服务
      source /home/ma-user/.bashrc
      export ASCEND_RT_VISIBLE_DEVICES=${ASCEND_RT_VISIBLE_DEVICES}
      python -m vllm.entrypoints.openai.api_server --model ${model_path} \
      --ssl-keyfile="/home/mind/model/key.pem" \
      --ssl-certfile="/home/mind/model/cert.pem" \
      --max-num-seqs=256 \
      --max-model-len=4096 \
      --max-num-batched-tokens=4096 \
      --dtype=float16 \
      --tensor-parallel-size=1 \
      --block-size=128 \
      --host=0.0.0.0 \
      --port=8080 \
      --gpu-memory-utilization=0.9 \
      --trust-remote-code

      参数说明:

      • ${ASCEND_RT_VISIBLE_DEVICES}:使用的NPU卡,单卡设为0即可,4卡可设为0,1,2,3。
      • ${model_path}:模型路径,填写为/home/mind/model/权重文件夹名称,如:/home/mind/model/chatglm3-6b。

        /home/mind/model路径为推理平台固定路径,部署服务时会将Step1 准备模型文件和权重文件OBS路径下的文件传输至/home/mind/model路径下。

      • --tensor-parallel-size:并行卡数。
      • --hostname:服务部署的IP,使用本机IP 0.0.0.0。
      • --port:服务部署的端口8080。
      • --max-model-len:最大数据输入+输出长度,不能超过模型配置文件config.json里面定义的“max_position_embeddings”和“seq_length”;如果设置过大,会占用过多显存,影响kvcache的空间。
      • --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。
      • --trust-remote-code:是否相信远程代码。
      • --dtype:模型推理的数据类型。仅支持FP16和BF16数据类型推理。float16表示FP16,bfloat16表示BF16。
      • 推理启动脚本必须名为run_vllm.sh,不可修改其他名称。
      • hostname和port也必须分别是0.0.0.0和8080不可更改。
      高阶参数说明:
      • --enable-prefix-caching:如果prompt的公共前缀较长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动脚本中添加此参数表示使用,不添加表示不使用。
      • --quantization:推理量化参数。当使用量化功能,则在推理服务启动脚本中增加该参数,若未使用量化功能,则无需配置。根据使用的量化方式配置,可选择awqsmoothquant方式。
      • --speculative-model ${container_draft_model_path}:投机草稿模型地址,模型格式是HuggingFace的目录格式。即Step2 准备权重文件上传的HuggingFace权重文件存放目录。投机草稿模型为与--model入参同系列,但是权重参数远小于--model指定的模型。若未使用投机推理功能,则无需配置。
      • --num-speculative-tokens:投机推理小模型每次推理的token数。若未使用投机推理功能,则无需配置。参数--num-speculative-tokens需要和--speculative-model ${container_draft_model_path}同时使用。

      可在run_vllm.sh增加如下环境变量开启高阶配置:

      export DEFER_DECODE=1 
      # 是否使用推理与Token解码并行;默认值为1表示开启并行,取值为0表示关闭并行。开启该功能会略微增加首Token时间,但可以提升推理吞吐量。
      
      export DEFER_MS=10
      # 延迟解码时间,默认值为10,单位为ms。将Token解码延迟进行的毫秒数,使得当次Token解码能与下一次模型推理并行计算,从而减少总推理时延。该参数需要设置环境变量DEFER_DECODE=1才能生效。
      
      export USE_VOCAB_PARALLEL=1
      # 是否使用词表并行;默认值为1表示开启并行,取值为0表示关闭并行。对于词表较小的模型(如llama2系模型),关闭并行可以减少推理时延,对于词表较大的模型(如qwen系模型),开启并行可以减少显存占用,以提升推理吞吐量。
      
      export USE_PFA_HIGH_PRECISION_MODE=1
      # PFA算子是否使用高精度模式;默认值为0表示不开启。针对Qwen2-7B模型,必须开启此配置,否则精度会异常;其他模型不建议开启,因为性能会有损失。
support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1989.html