检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
【下线公告】华为云ModelArts服务旧版数据集下线公告 【下线公告】华为云ModelArts MindStudio/ML Studio/ModelBox镜像下线公告 【下线公告】华为云ModelArts算法套件下线公告
CommonOperations),表示“ModelArts CommonOperations”已生效。 在“服务列表”中选择除ModelArts外(假设当前策略仅包含ModelArts CommonOperations)的任一服务,如果提示权限不足,表示“ModelArts CommonOperations”已生效。
Map<String,Object> 计费工作流使用的拓展字段。 policy 否 WorkflowPolicy object 工作流部分运行策略。 with_subscription 否 Boolean 工作流SMN消息订阅开关,默认为false,表示关闭消息订阅开关。 smn_switch
AscendCloud-*.zip unzip AscendCloud-LLM-*.zip Yi-34B、Qwen1.5系列、GLM4-9B模型执行lora微调策略任务如产生mc2融合算子错误,可参考mc2融合算子报错 上传tokenizers文件到工作目录中的/mnt/sfs_turbo/token
2、PPO训练暂不支持 ZeRO-3存在通信问题,如llama3-70B使用ZeRO-3暂不支持 训练策略类型 全参full,配置如下: finetuning_type: full lora,如dpo仅支持此策略;配置如下: finetuning_type: lora lora_target: all
2、PPO训练暂不支持ZeRO-3存在通信问题,如llama3-70B使用ZeRO-3暂不支持 训练策略类型 全参full,配置如下: finetuning_type: full lora,如dpo仅支持此策略;配置如下: finetuning_type: lora lora_target: all
AscendCloud-*.zip unzip AscendCloud-LLM-*.zip Yi-34B、Qwen1.5系列、GLM4-9B模型执行lora微调策略任务如产生mc2融合算子错误,可参考mc2融合算子报错 上传tokenizers文件到工作目录中的/mnt/sfs_turbo/token
base块:基础配置块,主要为公共配置参数 ModelName块:该模型所需配置的参数,如qwen2.5-7b块 exp_name:实验块;训练策略-序列长度所需参数配置 样例yaml文件仅展示qwen1.5-7b-4096-sft-full配置,如需其他配置需根据样例自行添加。 图1
2、PPO训练暂不支持ZeRO-3存在通信问题,如llama3-70B使用ZeRO-3暂不支持 训练策略类型 全参full,配置如下: finetuning_type: full lora,如dpo仅支持此策略;配置如下: finetuning_type: lora lora_target: all
base块:基础配置块,主要为公共配置参数 ModelName块:该模型所需配置的参数,如qwen2.5-7b块 exp_name:实验块;训练策略-序列长度所需参数配置 样例yaml文件仅展示qwen1.5-7b-4096-sft-full配置,如需其他配置需根据样例自行添加。 图1
ccuracy_cfgs.yaml相对或绝对路径 <model_name>:训练模型名,如qwen2.5-7b <run_type>:训练策略类型及数据序列长度:【lora:4096-lora、full:4096-full】 训练完成后,test-benchmark目录下会生成训
ccuracy_cfgs.yaml相对或绝对路径 <model_name>:训练模型名,如qwen2.5-7b <run_type>:训练策略类型及数据序列长度:【lora:4096-lora、full:4096-full】 训练完成后,test-benchmark目录下会生成训
Gallery为零基础开发者,提供无代码开发工具,快速推理、部署模型;为具备基础代码能力的开发者,AI Gallery将复杂的模型、数据及算法策略深度融合,构建了一个高效协同的模型体验环境,让开发者仅需几行代码即可调用任何模型,大幅度降低了模型开发门槛。 充足澎湃算力,最佳实践算力推荐方案,提升实践效率和成本
是 list[Step] storages 统一存储对象列表 否 Storage或者list[Storage] policy 工作流的配置策略,主要用于部分运行场景 否 Policy Step Step是组成Workflow的最小单元,体现在DAG中就是一个一个的节点,不同的St
开启高可用冗余:是否开启资源池的高可用冗余,超节点默认开启高可用冗余。 冗余节点分布策略:冗余节点的分布策略,超节点仅支持step均分:每个超节点内预留相同数量的冗余节点。 冗余实例数:此规格设置的高可用冗余实例数量。冗余系数指的是冗余节点分布策略为step均分时,每个超节点内预留的冗余节点数量。 说明:
Map<String,Object> 计费工作流使用的拓展字段。 policy WorkflowPolicy object 工作流部分运行策略。 with_subscription Boolean 工作流SMN消息订阅开关,默认为false,表示关闭消息订阅开关。 smn_switch
准备租户名ID和IAM用户名ID,用于OBS桶配置。 将您的租户名ID和IAM用户名ID提供给华为技术支持,华为云技术支持将根据您提供的信息,为您配置OBS桶策略,以便用户收集的日志可以上传至对应的OBS桶。 华为云技术支持配置完成后,会给您提供对应的OBS桶目录“obs_dir”,该目录用于后续配置的脚本中。
PT_PATH}不能是训练过程的权重保存路径。 步骤三 启动训练脚本 Yi-34B、Qwen1.5系列、GLM4-9B模型执行lora微调策略任务如产生mc2融合算子错误,可参考mc2融合算子报错 修改超参值后启动训练脚本,以 Llama2-70b-sft为例,各个模型NPU卡数可参考模型推荐参数、NPU卡数。
分布式训练功能介绍 ModelArts提供了如下能力: 丰富的官方预置镜像,满足用户的需求。 支持基于预置镜像自定义制作专属开发环境,并保存使用。 丰富的教程,帮助用户快速适配分布式训练,使用分布式训练极大减少训练时间。 分布式训练调测的能力,可在PyCharm/VSCode/J
String NPU驱动版本,物理资源池中含有ascend规格时可填,例如:"C78"。 updateStrategy 否 String 驱动升级策略。可选值如下: force:强制升级,立即升级节点驱动,可能影响节点上正在运行的作业 idle:安全升级,待节点上没有作业运行时进行驱动升级