检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
--workers:设置数据处理使用执行卡数量 / 启动的工作进程数。 --log-interval:是一个用于设置日志输出间隔的参数,表示输出日志的频率。在训练大规模模型时,可以通过设置这个参数来控制日志的输出。
--workers:设置数据处理使用执行卡数量 / 启动的工作进程数。 --log-interval:是一个用于设置日志输出间隔的参数,表示输出日志的频率。在训练大规模模型时,可以通过设置这个参数来控制日志的输出。
训练 启动训练 介绍各个训练阶段:指令微调、PPO强化训练、RM奖励模型、DPO偏好训练使用全参/lora训练策略进行训练任务、性能查看。 父主题: 主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.910)
选择预下载至本地目录时,系统在训练作业启动前,自动将数据存储位置中的Checkpoint文件下载到训练容器的本地目录。 图1 训练输出设置 PyTorch版reload ckpt PyTorch模型保存有两种方式。
系统会在训练作业启动前,自动将存储位置中的文件目录挂载到训练容器中指定路径。 图2 设置训练“SFS Turbo” 当前训练作业支持挂载多个弹性文件服务SFS Turbo,文件系统支持重复挂载,但挂载路径不可重复。文件系统目录需指定已存在的目录,否则会导致训练作业异常。
具体受限操作如表3所示: 表3 欠费受限操作 功能 受限操作 Workflow 订阅Workflow、模型训练、部署上线 自动学习 模型训练、部署上线 开发环境-Notebook 创建Notebook、启动Notebook 训练管理-训练作业 创建训练作业 部署上线-在线服务、边缘服务
普通开发者使用开发环境,只需关注对自己Notebook实例的操作权限,包括对自己实例的创建、启动、停止、删除等权限以及周边依赖服务的权限。普通开发者不需要ModelArts专属资源池的操作权限,也不需要查看其他用户的Notebook实例。
可选值如下: true:发布时启动特征分析任务 false:发布时不启动特征分析任务(默认值) status Integer 数据集版本状态。
image:create modelarts:image:get modelarts:pool:list modelarts:tag:list modelarts:network:get aom:metric:get aom:metric:list aom:alarm:list 实例的启动
建议您在启动任务前,在该资源池的详情页中,单击“节点”页签,查看实际可用的CPU资源。 父主题: ModelArts Standard资源管理
Notebook实例接口重新启动实例。
EXACT" }] dependency = Dependencies(installer="pip", packages=packages) dependencies.append(dependency) 基于自定义镜像创建模型 适用于推理服务的脚本已经内置在自定义镜像中,镜像启动时会自动拉起服务的场景
当在线服务再次启动或恢复后,即可正常查看。 对接云监控之前,用户无法查看到未对接资源的监控数据。具体操作,请参见设置告警规则。 登录管理控制台。 在“服务列表”中选择“管理与监管 > 云监控服务”,进入“云监控服务”管理控制台。
建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 storage_type 否 String 挂载类型sfs_turbo极速文件系统挂载。
“启动文件”:选择代码目录下上传的训练脚本“train.py”。 “输入”:单击“增加训练输入”,设置训练输入的“参数名称”为“data_url”。
“启动文件”:选择代码目录下上传的训练脚本“train.py”。 “输入”:单击“增加训练输入”,设置训练输入的“参数名称”为“data_url”。
并且这些镜像预置了一些开发环境启动所必要的配置,用户无需对此做任何适配,安装所需的软件包即可使用。
CPU IO等待时间 ma_node_cpu_iowait_counter 从系统启动开始累计到当前时刻,硬盘IO等待时间 jiffies ≥0 NA NA NA 内存 物理内存使用率 ma_node_memory_util 该指标用于统计测量对象已使用内存占申请物理内存总量的百分比