检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
长度,则推荐增加此值(≥ 2)。 (此参数目前仅适用于Llama3系列模型长序列训练) lr 2.5e-5 学习率设置。 min-lr 2.5e-6 最小学习率设置。 seq-length 4096 要处理的最大序列长度。 convert_mg2hf_at_last 1 Mega
otebook。 部署推理服务 在Notebook调试环境中部署推理服务 介绍如何在Notebook中配置NPU环境,部署并启动推理服务,完成精度测试和性能测试。 在推理生产环境中部署推理服务 介绍如何在创建AI应用,部署并启动推理服务,在线预测在线服务。 父主题: 主流开源大模
k。 SSH:可以通过SSH协议远程连接Notebook。 ssh_keys Array of strings SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。 service String 访问Notebook的途径,枚举值如下: NOTEBOOK:可以通过https协议访问Notebook。
k。 SSH:可以通过SSH协议远程连接Notebook。 ssh_keys Array of strings SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。 service String 访问Notebook的途径,枚举值如下: NOTEBOOK:可以通过https协议访问Notebook。
Open-Sora-Plan1.0基于Lite Server适配PyTorch NPU训练推理指导(6.3.907) 本文档主要介绍如何在ModelArts Lite Server上,使用PyTorch_npu+华为自研Ascend Snt9B硬件,完成Open-Sora-Plan1
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。
processed_data_dir /home/ma-user/ws/xxx 已处理好数据路径目录,如有处理完成数据可设置此参数 权重文件、输出目录及其他重要参数设置,详解如下: 参数 示例值 参数说明 model_name_or_path /home/ma-user/ws/llm
是否需要安装训练平台指定的 moxing 版本。true为需要。只有填写了engine_name,engine_version,image_url参数时支持该设置。 表15 Summary 参数 是否必选 参数类型 描述 log_type 否 String 训练作业可视化日志类型,配置后训练作业可作为可视化作业数据源。可选取值如下:
Open-Sora1.2基于Lite Server适配PyTorch NPU训练推理指导(6.3.910) 本文档主要介绍如何在ModelArts Lite Server上,使用PyTorch_npu+华为自研Ascend Snt9B硬件,完成Open-Sora 1.2 训练和推理。
准备训练模型适用的容器镜像。 预训练 预训练 介绍如何进行预训练,包括训练数据处理、超参配置、训练任务、性能查看。 微调训练 SFT全参微调 介绍如何进行SFT全参微调、超参配置、训练任务、性能查看。 LoRA微调训练 介绍如何进行LoRA微调、超参配置、训练任务、性能查看。 父主题:
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。
准备训练模型适用的容器镜像。 预训练 预训练 介绍如何进行预训练,包括训练数据处理、超参配置、训练任务、性能查看。 微调训练 SFT全参微调 介绍如何进行SFT全参微调、超参配置、训练任务、性能查看。 LoRA微调训练 介绍如何进行LoRA微调、超参配置、训练任务、性能查看。 父主题:
911版本仅是使用run_type来指定训练的类型,只能区分 预训练、全参微调和lora微调但实际上预训练和sft是训练的不同阶段,全参、lora是训练参数设置方式。为了更加明确的区分不同策略,以及和llama-factory对齐,6.3.912版本调整以下参数: 新增 STAGE,表示训练的阶段,可以选择的参数包括:
16,32 # 设置动态分档的档位,根据实际情况设置,另外请不要设置档位1(DeepSeek V2 236B W8A8 模型建议最大设置4个档位) export VLLM_ENGINE_ITERATION_TIMEOUT_S=1500 # 设置vllm请求超时时间(DeepSeek
本案例介绍如何将Notebook的Conda环境迁移到SFS磁盘上。 使用ModelArts VSCode插件调试训练ResNet50图像分类模型 MindSpore VS Code Toolkit工具 目标检测 本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts
(此参数目前仅适用于Llama3系列模型长序列训练) LR 2.5e-5 学习率设置。 MIN_LR 2.5e-6 最小学习率设置。 SEQ_LEN 4096 要处理的最大序列长度。 MAX_PE 8192 设置模型能够处理的最大序列长度。 TRAIN_ITERS 100 表示训练step迭代次数,根据实际需要修改。