检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在左侧菜单栏选择“访问权限控制>桶ACLs”,检查当前账号是否具备读写权限,如果没有权限,请联系桶的拥有者配置权限。 在左侧菜单栏选择“访问权限控制>桶策略”,检查当前OBS桶是否允许子用户访问。 检查训练作业的代码目录和启动文件地址 进入ModelArts管理控制台,在“作业管理 > 训练作
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 步骤三 启动训练脚本 修改超参值后,再启动训练脚本。Llama2-70b建议为4机32卡训练。
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 Step3 启动训练脚本 修改超参值后,再启动训练脚本。Llama2-70b建议为4机32卡训练。
长。另一方面,由于是使用transformers推理,结果也是最稳定的。对单卡运行的模型比较友好,算力利用率比较高。对多卡运行的推理,缺少负载均衡,利用率低。 在昇腾卡上执行时,需要在 opencompass/opencompass/runners/local.py 中添加如下代码
长。另一方面,由于是使用transformers推理,结果也是最稳定的。对单卡运行的模型比较友好,算力利用率比较高。对多卡运行的推理,缺少负载均衡,利用率低。 在昇腾卡上执行时,需要在 opencompass/opencompass/runners/local.py 中添加如下代码
997 服务异常进程反复重启导致预测请求无法发送到服务实例。 可以通过以下方式解决问题: 缩小预测请求数量看是否问题还复现,如果不复现是因为负载过大导致服务进程退出,需要扩容实例数量或者提升规格。 推理代码本身存在错误,请排查推理代码解决。 父主题: 服务预测
可以在控制台右上角的个人账号切换角色到账号A,使用账号A的委托权限。 图3 委托用户切换角色 说明: ModelArts暂不支持创建身份策略权限的委托。 “委托选择” 已有委托:列表中如果已有委托选项,则直接选择一个可用的委托为上述选择的用户授权。单击委托名称查看该委托的权限详情。
String NPU驱动版本,物理资源池中含有ascend规格时可填,例如:"C78"。 updateStrategy 否 String 驱动升级策略。可选值如下: force:强制升级,立即升级节点驱动,可能影响节点上正在运行的作业 idle:安全升级,待节点上没有作业运行时进行驱动升级
int: 隔离式Job重调度 end_recover_before_downgrade String 本次运行结束后在故障容忍策略降级前所采取的容忍策略,取值范围同end_recover。 表8 JobAlgorithmResponse 参数 参数类型 描述 id String 训练作业算法。目前支持三种形式:
int: 隔离式Job重调度 end_recover_before_downgrade String 本次运行结束后在故障容忍策略降级前所采取的容忍策略,取值范围同end_recover。 表7 JobAlgorithmResponse 参数 参数类型 描述 id String 训练作业算法。目前支持三种形式:
选择“我参与的”,选择团队标注作业,单击作业名称进入“标注作业详情页”,单击右上角“团队标注>验收”,发起验收。 图5 发起验收 在弹出的对话框中,设置“抽样策略”,可设置为“按百分比”,也可以设置为“按数量”。设置好参数值后,单击“确定”启动验收。 “按百分比”:按待验收图片总数的一定比例进行抽样验收。
String NPU驱动版本,物理资源池中含有ascend规格时可填,例如:"C78"。 updateStrategy String 驱动升级策略。可选值如下: force:强制升级,立即升级节点驱动,可能影响节点上正在运行的作业 idle:安全升级,待节点上没有作业运行时进行驱动升级
可视化功能完成对训练输出的分析。 PFS是一种经过优化的高性能对象存储文件系统,存储成本低,吞吐量大,能够快速处理高性能计算(HPC)工作负载。在需要使用对象存储服务场景下,推荐使用PFS挂载。 说明: 建议上传时按照128MB或者64MB打包或者切分,使用时边下载边解压后在本地存储读取,以获取更好的读写与吞吐性能。
2、PPO训练暂不支持 ZeRO-3存在通信问题,如llama3-70B使用ZeRO-3暂不支持 训练策略类型 全参full,配置如下: finetuning_type: full lora,如dpo仅支持此策略;配置如下: finetuning_type: lora lora_target: all
2、PPO训练暂不支持 ZeRO-3存在通信问题,如llama3-70B使用ZeRO-3暂不支持 训练策略类型 全参full,配置如下: finetuning_type: full lora,如dpo仅支持此策略;配置如下: finetuning_type: lora lora_target: all
是 list[Step] storages 统一存储对象列表 否 Storage或者list[Storage] policy 工作流的配置策略,主要用于部分运行场景 否 Policy Step Step是组成Workflow的最小单元,体现在DAG中就是一个一个的节点,不同的St
String NPU驱动版本,物理资源池中含有ascend规格时可填,例如:"C78"。 updateStrategy String 驱动升级策略。可选值如下: force:强制升级,立即升级节点驱动,可能影响节点上正在运行的作业 idle:安全升级,待节点上没有作业运行时进行驱动升级
int: 隔离式Job重调度 end_recover_before_downgrade String 本次运行结束后在故障容忍策略降级前所采取的容忍策略,取值范围同end_recover。 表10 JobAlgorithmResponse 参数 参数类型 描述 id String
开启高可用冗余:是否开启资源池的高可用冗余,超节点默认开启高可用冗余。 冗余节点分布策略:冗余节点的分布策略,超节点仅支持step均分:每个超节点内预留相同数量的冗余节点。 冗余实例数:此规格设置的高可用冗余实例数量。冗余系数指的是冗余节点分布策略为step均分时,每个超节点内预留的冗余节点数量。 说明:
finetuning_type full 用于指定微调策略类型,可选择值full、lora。 如果设置为full,则对整个模型进行微调。这意味着在微调过程中,除了输出层外,模型的所有参数都将被调整以适应新的任务。 lora_target all 采取lora策略方法的目标模块,默认为all dataset