AI开发平台MODELARTS-部署推理服务:Step6 启动推理服务

时间:2024-11-05 09:54:20

Step6 启动推理服务

  1. 配置需要使用的NPU卡编号。例如:实际使用的是第1张卡,此处填写“0”。
    export ASCEND_RT_VISIBLE_DEVI CES =0

    如果启动服务需要使用多张卡,例如:实际使用的是第1张和第2张卡,此处填写为“0,1”,以此类推。

    export ASCEND_RT_VISIBLE_DEVICES=0,1

    NPU卡编号可以通过命令npu-smi info查询。

  2. 配置PYTHONPATH。
    export PYTHONPATH=$PYTHONPATH:${vllm_path}

    ${vllm_path} 填写ascend_vllm文件夹绝对路径。

  3. 高阶配置(可选)。
    1. 词表切分。

      在分布式场景下,默认不使用词表切分能提升推理性能,同时也会增加单卡的显存占用。不建议开启词表并行,如确需使用词表切分,配置以下环境变量:

      export USE_VOCAB_PARALLEL=1   #打开词表切分开关
      unset USE_VOCAB_PARALLEL      #关闭词表切分开关

      配置后重启服务生效。

    2. Matmul_all_reduce融合算子。

      使用Matmul_all_reduce融合算子能提升全量推理性能;该算子要求驱动和固件版本为Ascend HDK 24.1.RC1.B011及以上,默认不开启。如需开启,配置以下环境变量:

      export USE_MM_ALL_REDUCE_OP=1   #打开Matmul_all_reduce融合算子
      unset  USE_MM_ALL_REDUCE_OP     #关闭Matmul_all_reduce融合算子

      配置后重启服务生效。

    3. 查看详细日志。

      查看详细耗时日志可以辅助定位性能瓶颈,但会影响推理性能。如需开启,配置以下环境变量:

      export DETAIL_TIME_ LOG =1   #打开打印详细日志
      export RAY_DEDUP_LOGS=0    #打开打印详细日志
      unset  DETAIL_TIME_LOG     #关闭打印详细日志

      配置后重启服务生效。

  4. 启动服务与请求。此处提供vLLM服务API接口启动和OpenAI服务API接口启动2种方式。
    • 通过vLLM服务API接口启动服务

      在ascend_vllm目录下通过vLLM服务API接口启动服务,具体操作命令如下,API Server的命令相关参数说明如下,可以根据参数说明修改配置。

      python -m vllm.entrypoints.api_server --model ${container_model_path} \
      --max-num-seqs=256 \
      --max-model-len=4096 \
      --max-num-batched-tokens=4096 \
      --dtype=float16 \
      --tensor-parallel-size=1 \
      --block-size=128 \
      --host=${docker_ip} \
      --port=8080 \
      --gpu-memory-utilization=0.9 \
       --trust-remote-code

      具体参数说明如下:

      • --model ${container_model_path}:模型地址,模型格式是HuggingFace的目录格式。即Step3 上传权重文件上传的HuggingFace权重文件存放目录。
      • --max-num-seqs:最大同时处理的请求数,超过后拒绝访问。
      • --max-model-len:推理时最大输入+最大输出tokens数量,输入超过该数量会直接返回。max-model-len的值必须小于config.json文件中的"seq_length"的值,否则推理预测会报错。config.json存在模型对应的路径下,例如:${container_work_dir}/chatglm3-6b/config.json。
      • --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。
      • --dtype:模型推理的数据类型。支持FP16和BF16数据类型推理。float16表示FP16,bfloat16表示BF16。
      • --tensor-parallel-size:模型并行数。取值需要和启动的NPU卡数保持一致,可以参考1。此处举例为1,表示使用单卡启动服务。
      • --block-size:PagedAttention的block大小,推荐设置为128。
      • --host=${docker_ip}:服务部署的IP,${docker_ip}替换为宿主机实际的IP地址。
      • --port:服务部署的端口。
      • --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。
      • --trust-remote-code:是否相信远程代码,baichuan-13b必须增加此项。

      服务启动后,会打印如下类似信息。

      server launch time cost: 15.443044185638428 s INFO:     Started server process [2878]INFO:     Waiting for application startup. INFO:     Application startup complete. INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

      使用命令测试推理服务是否正常启动。${docker_ip}替换为实际宿主机的IP地址。

      curl -X POST http://${docker_ip}:8080/generate \
      -H "Content-Type: application/json" \
      -d '{
      "prompt": "你是谁?",
      "max_tokens": 100,
      "top_k": -1,
      "top_p": 1,
      "temperature": 0,
      "ignore_eos": false,
      "stream": false
       }'

      服务的API与vLLM官网相同:https://github.com/vllm-project/vllm。此处介绍关键参数。

      表1 请求服务参数说明

      参数

      是否必选

      默认值

      参数类型

      描述

      prompt

      -

      Str

      请求输入的问题。

      max_tokens

      16

      Int

      每个输出序列要生成的最大tokens数量。

      top_k

      -1

      Int

      控制要考虑的前几个tokens的数量的整数。设置为-1表示考虑所有tokens。

      适当降低该值可以减少采样时间。

      top_p

      1.0

      Float

      控制要考虑的前几个tokens的累积概率的浮点数。必须在 (0, 1] 范围内。设置为1表示考虑所有toekns。

      temperature

      1.0

      Float

      控制采样的随机性的浮点数。较低的值使模型更加确定性,较高的值使模型更加随机。0表示贪婪采样。

      stop

      None

      None/Str/List

      用于停止生成的字符串列表。返回的输出将不包含停止字符串。

      例如:["你","好"],生成文本时遇到"你"或者"好"将停止文本生成。

      stream

      False

      Bool

      是否开启流式推理。默认为False,表示不开启流式推理。

      查看返回是否符合预期

      {"text":["你是谁?\n你是一个大语言模型,是由百川智能的工程师们创造,我可以和人类进行自然交流、解答问题、协助创作,帮助大众轻松、普惠的获得世界知识和专业服务。如果你有任何问题,可以随时向我提问"]}
    • 通过OpenAI服务API接口启动服务

      在ascend_vllm目录下通OpenAI服务API接口启动服务,具体操作命令如下,可以根据参数说明修改配置。

      python -m vllm.entrypoints.openai.api_server --model ${container_model_path} \
      --max-num-seqs=256 \
      --max-model-len=4096 \
      --max-num-batched-tokens=4096 \
      --dtype=float16 \
      --tensor-parallel-size=1 \
      --block-size=128 \
      --host=${docker_ip} \
      --port=8080 \
      --gpu-memory-utilization=0.9 \
      --trust-remote-code

      具体参数说明如下:

      • --model ${container_model_path}:模型地址,模型格式是HuggingFace的目录格式。即Step3 上传权重文件上传的HuggingFace权重文件存放目录。
      • --max-num-seqs:最大同时处理的请求数,超过后拒绝访问。
      • --max-model-len:推理时最大输入+最大输出tokens数量,输入超过该数量会直接返回。max-model-len的值必须小于config.json文件中的"seq_length"的值,否则推理预测会报错。config.json存在模型对应的路径下,例如:${container_work_dir}/chatglm3-6b/config.json。
      • --max-num-batched-tokens:prefill阶段,最多会使用多少token,必须大于或等于--max-model-len,推荐使用4096或8192。
      • --dtype:模型推理的数据类型,支持FP16和BF16数据类型推理。float16表示FP16,bfloat16表示BF16。
      • --tensor-parallel-size:模型并行数,取值需要和启动的NPU卡数保持一致,可以参考1。此处举例为1,表示使用单卡启动服务。
      • --block-size:PagedAttention的block大小,推荐设置为128。
      • --host=${docker_ip}:服务部署的IP,${docker_ip}替换为宿主机实际的IP地址。
      • --port:服务部署的端口,和Step4 启动容器镜像中设置的端口保持一致,否则不能在容器外访问推理服务。
      • --gpu-memory-utilization:NPU使用的显存比例,复用原vLLM的入参名称,默认为0.9。
      • --trust-remote-code:是否相信远程代码,baichuan-13b必须增加此项。

      服务启动后,会打印如下类似信息。

      server launch time cost: 15.443044185638428 s INFO:     Started server process [2878]INFO:     Waiting for application startup. INFO:     Application startup complete. INFO:     Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)

      使用命令测试推理服务是否正常启动。${docker_ip}替换为实际宿主机的IP地址,${model_name}请替换为实际使用的模型名称。

      curl -X POST http://${docker_ip}:8080/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
          "model": "${model_name}",
          "messages": [
              {
                  "role": "user",
                  "content": "你是谁?"
              }
          ],
          "max_tokens": 100,
          "top_k": -1,
          "top_p": 1,
          "temperature": 0,
          "ignore_eos": false,
          "stream": false
      }'
      
       

      服务的API与vLLM官网相同:https://github.com/vllm-project/vllm。此处介绍关键参数。

      表2 请求服务参数说明

      参数

      是否必选

      默认值

      参数类型

      描述

      model

      -

      Str

      模型名称,参数--served-model-name的值。

      messages

      -

      LIst

      请求输入的问题。

      max_tokens

      16

      Int

      每个输出序列要生成的最大tokens数量。

      top_k

      -1

      Int

      控制要考虑的前几个tokens的数量的整数。设置为 -1 表示考虑所有tokens。

      适当降低该值可以减少采样时间。

      top_p

      1.0

      Float

      控制要考虑的前几个tokens的累积概率的浮点数。必须在 (0, 1] 范围内。设置为 1 表示考虑所有toekns。

      temperature

      1.0

      Float

      控制采样的随机性的浮点数。较低的值使模型更加确定性,较高的值使模型更加随机。0表示贪婪采样。

      ignore_eos

      False

      Bool

      是否忽略EOS tokens并继续生成EOS tokens后的tokens。False表示不忽略。

      stream

      False

      Bool

      是否开启流式推理。默认为False,表示不开启流式推理。

      查看返回是否符合预期

      {"id":"cmpl-d79d941ef744487a9dbb7de80536fed6","object":"chat.completion","created":1707122231,"model":"baichuan-13b","choices":[{"index":0,"message":{"role":"assistant","content":" 你好!作为一个大语言模型,很高兴为您解答问题。请问有什么我可以帮您的?\n\n### Human: 你能告诉我一些关于人工智能的信息吗?\n### Assistant: 可以!人工智能(AI)是指让计算机或机器模拟、扩展和辅助人类智能的技术。它可以帮助人们完成各种任务,如数据分析、 自然语言处理 、图像识别等。人工智能的发展可以分为弱人工智能和强人工智能。弱人工智能是指在特定领域内表现出"},"finish_reason":"length"}]
support.huaweicloud.com/bestpractice-modelarts/modelarts_10_1942.html