AI开发平台MODELARTS-推理精度测试:使用Lm-eval精度测评工具
时间:2024-12-10 16:15:49
使用Lm-eval精度测评工具
使用lm-eval工具暂不支持qwen-7b、qwen-14b、qwen-72b、chatglm2-6b、chatglm3-6b模型。
- 精度评测可以在原先conda环境,进入到一个固定目录下,执行如下命令。
rm -rf lm-evaluation-harness/ git clone https://github.com/EleutherAI/lm-evaluation-harness.git cd lm-evaluation-harness git checkout 383bbd54bc621086e05aa1b030d8d4d5635b25e6 pip install -e .
- 执行如下精度测试命令,可以根据参数说明修改参数。
lm_eval --model vllm --model_args pretrained=${vllm_path},dtype=auto,tensor_parallel_size=${tensor_parallel_size},gpu_memory_utilization=${gpu_memory_utilization},add_bos_token=True,max_model_len=${max_model_len},quantization=${quantization},distributed_executor_backend='ray' \ --tasks ${task} --batch_size ${batch_size} --log_samples --cache_requests true --trust_remote_code --output_path ${output_path}
参数说明:- model_args:标志向模型构造函数提供额外参数,比如指定运行模型的数据类型;
- vllm_path是模型权重路径;
- max_model_len 是最大模型长度,默认设置为4096;
- gpu_memory_utilization是gpu利用率,如果模型出现oom报错,调小参数;
- tensor_parallel_size是使用的卡数;
- quantization是量化参数,使用非量化权重,去掉quantization参数;如果使用awq、smoothquant或者gptq加载的量化权重,根据量化方式选择对应参数,可选awq,smoothquant,gptq。
- distributed_executor_backend是开启多进程服务方式,选择ray开启。
- model:模型启动模式,可选vllm,openai或hf,hf代表huggingface。
- tasks:评测数据集任务,比如openllm。
- batch_size:输入的batch_size大小,不影响精度,只影响得到结果速度,默认使用auto,代表自动选择batch大小。
- output_path:结果保存路径。
使用lm-eval,比如加载非量化或者awq量化,llama3.2-1b模型的权重,参考命令:lm_eval --model vllm --model_args pretrained="/data/nfs/benchmark/tokenizer/Llama-3.2-1B-Instruct/",dtype=auto,tensor_parallel_size=1,gpu_memory_utilization=0.7,add_bos_token=True,max_model_len=4096,distributed_executor_backend='ray' \ --tasks openllm --batch_size auto --log_samples --cache_requests true --trust_remote_code --output_path ./
使用lm-eval,比如smoothquant量化,llama3.1-70b模型的权重,参考命令:lm_eval --model vllm --model_args pretrained="/data/nfs/benchmark/tokenizer_w8a8/llama3.1-70b/",dtype=auto,tensor_parallel_size=4,gpu_memory_utilization=0.7,add_bos_token=True,max_model_len=4096,quantization="smoothquant",distributed_executor_backend='ray' \ --tasks openllm --batch_size auto --log_samples --cache_requests true --trust_remote_code --output_path ./
- model_args:标志向模型构造函数提供额外参数,比如指定运行模型的数据类型;
support.huaweicloud.com/bestpractice-modelarts/modelarts_llm_infer_91008.html
看了此文的人还看了
CDN加速
GaussDB
文字转换成语音
免费的服务器
如何创建网站
域名网站购买
私有云桌面
云主机哪个好
域名怎么备案
手机云电脑
SSL证书申请
云点播服务器
免费OCR是什么
电脑云桌面
域名备案怎么弄
语音转文字
文字图片识别
云桌面是什么
网址安全检测
网站建设搭建
国外CDN加速
SSL免费证书申请
短信批量发送
图片OCR识别
云数据库MySQL
个人域名购买
录音转文字
扫描图片识别文字
OCR图片识别
行驶证识别
虚拟电话号码
电话呼叫中心软件
怎么制作一个网站
Email注册网站
华为VNC
图像文字识别
企业网站制作
个人网站搭建
华为云计算
免费租用云托管
云桌面云服务器
ocr文字识别免费版
HTTPS证书申请
图片文字识别转换
国外域名注册商
使用免费虚拟主机
云电脑主机多少钱
鲲鹏云手机
短信验证码平台
OCR图片文字识别
SSL证书是什么
申请企业邮箱步骤
免费的企业用邮箱
云免流搭建教程
域名价格
推荐文章
- ModelArts自动学习是什么_自动学习简介_零代码完成AI开发
- ModelArts推理部署_OBS导入_模型包规范-华为云
- 性能测试使用教程_性能测试操作步骤_性能测试快速入门-华为云
- 服务器GPU_GPU云服务器使用_华为云GPU云服务器
- GPU服务器怎么使用_GPU云服务器使用_华为云服务器GPU使用
- 性能测试使用流程_性能测试怎么样_性能测试 CodeArts PerfTest-华为云
- GPU_GPU是什么_GPU加速云服务器
- GPU是什么_GPU是干什么的_GPU的作用_GPU简介
- 华为云ModelArts_ModelArts开发_AI全流程开发
- 云gpu服务器价格_云服务器免费试用1年_免费的云服务器_免费云主机试用一年