检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开发、训练和部署。支持公共资源池和专属资源池两种,分别为共享资源池和独享资源池。 ModelArts Standard默认提供公共资源池。ModelArts Standard专属资源池需单独创建,专属使用,不与其他用户共享。 ModelArts Lite Server和ModelArts
HuggingFace转Megatron参数说明 --model-type:模型类型。 --loader:选择对应加载模型脚本的名称。 --saver:选择模型保存脚本的名称。 --tensor-model-parallel-size:${TP}张量并行数,需要与训练脚本中的TP值配置一样。
抽取kv-cache量化系数生成的json文件路径; 如果只测试推理功能和性能,不需要此json文件,此时scale系数默认为1,但是可能会造成精度下降。 per-tensor+per-head静态量化场景 如需使用该场景量化方法,请自行准备kv-cache量化系数,格式和per-tensor静态量化所需的2.
multi-step 什么是multi-step vLLM的调度和输入准备的CPU开销可能会导致NPU利用率不足,开启multi-step调度可以有效解决这个问题,开启multi-step调度后会在执行一次调度和输入准备后,连续n步运行模型。通过NPU在n步之间连续处理,而无需等
# 认证用的ak和sk硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全; # 本示例以ak和sk保存在环境变量中来实现身份验证为例,运行本示例前请先在本地环境中设置环境变量HUAWEICLOUD_SDK_AK和HUAWEICLOUD_SDK_SK。
multi-step 什么是multi-step vLLM的调度和输入准备的CPU开销可能会导致NPU利用率不足,开启multi-step调度可以有效解决这个问题,开启multi-step调度后会在执行一次调度和输入准备后,连续n步运行模型。通过NPU在n步之间连续处理,而无需等
对象存储OBS 用于存储训练和推理的输入数据和输出结果数据。具体费用可参见对象存储价格详情。 注意: 存储到OBS中的数据需在OBS控制台进行手动删除。如果未删除,则会按照OBS的计费规则进行持续计费。 按需计费 包年/包月 创建桶不收取费用,按实际使用的存储容量和时长收费 计费示例 以
设置该参数为True将关闭CANNGraph图模式,小模型如Qwen2-1.5B和Qwen2-0.5B推荐不设置该参数。 online --enforce-eager 设置该参数将关闭CANNGraph图模式,小模型如Qwen2-1.5B和Qwen2-0.5B推荐不设置该参数。 父主题: 推理关键特性使用
抽取kv-cache量化系数生成的json文件路径; 如果只测试推理功能和性能,不需要此json文件,此时scale系数默认为1,但是可能会造成精度下降。 per-tensor+per-head静态量化场景 如需使用该场景量化方法,请自行准备kv-cache量化系数,格式和per-tensor静态量化所需的2.
HuggingFace转Megatron参数说明 --model-type:模型类型。 --loader:选择对应加载模型脚本的名称。 --saver:选择模型保存脚本的名称。 --tensor-model-parallel-size:${TP}张量并行数,需要与训练脚本中的TP值配置一样。
HuggingFace转Megatron参数说明 --model-type:模型类型。 --loader:选择对应加载模型脚本的名称。 --saver:选择模型保存脚本的名称。 --tensor-model-parallel-size:${TP}张量并行数,需要与训练脚本中的TP值配置一样。
登录ModelArts控制台,左侧菜单选择“模型管理”; 单击“创建”,进入创建模型界面,元模型选择“从容器镜像中选择”,选择自定义镜像; 配置“容器调用接口”和端口号,端口号与模型配置文件中的端口保持一致; 设置完成后,单击“立即创建”,等待模型状态变为“正常”; 重新部署在线服务。 父主题: Standard推理部署
设置该参数为True将关闭CANNGraph图模式,小模型如Qwen2-1.5B和Qwen2-0.5B推荐不设置该参数。 online --enforce-eager 设置该参数将关闭CANNGraph图模式,小模型如Qwen2-1.5B和Qwen2-0.5B推荐不设置该参数。 父主题: 推理关键特性使用
peed是一个开源库,用于加速深度学习训练。通过使用DeepSpeed,可以实现如混合精度训练、ZeRO内存优化等高级特性,以提高训练效率和性能 stage sft 表示当前的训练阶段。可选择值:sft、rm、ppo、dpo。 sft代表指令监督微调; rm代表奖励模型训练; ppo代表PPO训练;
ModelArts SDK、OBS SDK和MoXing的区别是什么? ModelArts的API或SDK支持模型下载到本地吗? ModelArts通过OBS的API访问OBS中的文件,属于内网还是公网访问? 调用ModelArts API接口创建训练作业和部署服务时,如何填写资源池的参数?
在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理standard常见问题 父主题: LLM大语言模型训练推理
在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:Standard大模型推理常见问题 父主题: LLM大语言模型训练推理
在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:Standard大模型推理常见问题 父主题: LLM大语言模型训练推理
抽取kv-cache量化系数生成的json文件路径; 如果只测试推理功能和性能,不需要此json文件,此时scale系数默认为1,但是可能会造成精度下降。 per-tensor+per-head静态量化场景 如需使用该场景量化方法,请自行准备kv-cache量化系数,格式和per-tensor静态量化所需的2.
抽取kv-cache量化系数生成的json文件路径; 如果只测试推理功能和性能,不需要此json文件,此时scale系数默认为1,但是可能会造成精度下降。 per-tensor+per-head静态量化场景 如需使用该场景量化方法,请自行准备kv-cache量化系数,格式和per-tensor静态量化所需的2.