AI开发平台MODELARTS-附录:大模型推理常见问题
附录:大模型推理常见问题
问题1:在推理预测过程中遇到NPU out of memory
解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。
问题2:在推理预测过程中遇到ValueError:User-specified max_model_len is greater than the drived max_model_len
解决方法:
修改config.json文件中的"seq_length"的值,"seq_length"需要大于等于 --max-model-len的值。
config.json存在模型对应的路径下,例如:/data/nfs/benchmark/tokenizer/chatglm3-6b/config.json
- ModelArts推理部署_OBS导入_模型包规范-华为云
- ModelArts推理部署_模型_AI应用来源-华为云
- ModelArts计费说明_计费简介_ModelArts怎么计费
- 华为云盘古大模型_华为云AI大模型_盘古人工智能
- ModelArts模型训练_创建训练作业_如何创建训练作业
- ModelArts推理部署_纳管Atlas 500_边缘服务-华为云
- ModelArts是什么_AI开发平台_ModelArts功能
- 华为云内容审核服务_内容审核有什么作用_华为云内容审核的优势
- ModelArts模型训练_模型训练简介_如何训练模型
- TMS开发_金蝶TMS系统_TMS技术系统_信息化管理_视频