检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
行环境与工具链。 模型适配:针对昇腾迁移模型必要的转换和改造。 模型准备,导出和保存确定格式的模型。 转换参数准备,准备模型业务相关的关键参数。 模型转换,包含模型转换、优化和量化等。 应用集成。 针对转换的模型运行时应用层适配。 数据预处理。 模型编排。 模型裁剪。 精度校验。
是否必选 参数说明 -d / --drop-last-dir Bool 否 如果指定,在复制文件夹时不会将源文件夹最后一级目录复制至目的文件夹下,仅对文件夹复制有效。 命令示例 # 上传文件到OBS中 $ ma-cli obs-copy ./test.csv obs://${you
obsutil是用于访问、管理对象存储服务OBS的命令行工具,使用该工具可以对OBS进行常用的配置管理操作,如创建桶、上传文件/文件夹、下载文件/文件夹、删除文件/文件夹等。 obsutil安装和配置的具体操作指导请参见obsutils快速入门。 操作命令中的AK/SK要换成用户实际获
used in loss computation. 原因分析 分布式Tensorflow不能使用“tf.variable”要使用“tf.get_variable”。 处理方法 请您将“启动文件”中的“tf.variable”替换为“tf.get_variable”。 父主题: 业务代码问题
scenes=[ wf.policy.Scene( scene_name="模型训练", scene_steps=[label_step, release_data_step, training_step]
3仅作为示例,请以实际控制台为准。 准备训练数据和代码文件,上传到JupyterLab中。具体参见上传本地文件至JupyterLab。 图4 文件上传按钮 在左侧导航双击打开上传的代码文件,在JupyterLab中编写代码文件,并运行调试。有关JupyterLab的使用具体参见JupyterLab常用功能介绍。
用户进程被Kill表示用户进程因外部因素被Kill或者中断,表现为日志中断。 原因分析 CPU软锁 在解压大量文件可能会出现此情况并造成节点重启。可以适当在解压大量文件时,加入sleep。比如每解压1w个文件,就停止1s。 存储限制 根据规格情况合理使用数据盘,数据盘大小请参考训练环境中不同规格资源大小。
使用此数据集训练模型,可得到精度更高的模型。首先,针对智能标注和采集筛选任务,难例的发现操作是系统自动执行的,无需人工介入,仅需针对标注后的数据进行确认和修改即可,提升数据管理和标注效率。其次,您可以基于难例的情况,补充类似数据,提升数据集的丰富性,进一步提升模型训练的精度。 在数据集管理中,对难例的管理有如下场景。
qwen2-72b glm4-9b LLM开源大模型基于DevServer适配PyTorch NPU训练指导(6.3.906) LLM开源大模型基于Standard适配PyTorch NPU训练指导(6.3.906) 支持如下模型适配PyTorch-NPU的推理。 llama-7B
API文档以及常用的Python编码,您可以参考本章节使用MoXing Framework的一些进阶用法。 读取完毕后将文件关闭 当读取OBS文件时,实际调用的是HTTP连接读去网络流,注意要记得在读取完毕后将文件关闭。为了防止忘记文件关闭操作,推荐使用with语句,在with语句退出时会自动调用mox.file.File对象的close()方法:
falcon-11B glm4-9b LLM开源大模型基于DevServer适配ModelLinkPyTorch NPU训练指导 LLM开源大模型基于DevServer适配LLamaFactory PyTorch NPU训练指导 LLM开源大模型基于Standard+OBS适配PyTorch
OBS并行文件系统中。 Summary数据上传到Notebook路径/home/ma-user/work/下的方式,请参见上传本地文件至JupyterLab。 Summary数据如果是通过OBS并行文件系统挂载到Notebook中,请将模型训练时产生的Summary文件先上传到O
添加的数据将先导入至标注任务关联的数据集中,然后标注任务会自动同步数据集中最新的数据。 在标注作业详情页面,单击“全部”、“已标注”或“未标注”页签,然后单击左上角“添加数据”,选择添加数据。 图7 添加数据 在弹出的导入对话框中,选择数据来源和导入方式,选择导入的数据路径和数据标注状态。
String 训练作业的代码启动文件,需要在代码目录下,如:“/usr/app/boot.py”。应与app_url一同出现,若填入model_id则app_url/boot_file_url和engine_id无需填写。 model_id 是 Long 训练作业的模型ID。请通过查询预置算
String 排序方式,可选“asc”或“desc”,代表递增排序及递减排序,默认为:“desc”。 model_id 否 String 模型ID,默认不过滤模型ID。 表2 get_service_list返回参数说明 参数 参数类型 描述 total_count Integer 不分页的情况下,符合查询条件的总服务数量。
启动弹性节点Server:单击“启动”。只有处于“已停止/停止失败/启动失败”状态的弹性节点Server可以执行启动操作。 停止弹性节点Server:单击“停止”,在弹出的确认对话框中,确认信息无误,然后单击“确定”。只有处于“运行中/停止失败”状态的弹性节点Server可以执行停止操作。 停
volumes属性列表 参数 参数类型 说明 nfs Object 共享文件系统类型的存储卷。仅支持运行于已联通共享文件系统网络的资源池的训练作业。具体请参见表6。 host_path Object 主机文件系统类型的存储卷。仅支持运行于专属资源池中的训练作业。具体请参见表7。 表6
Notebook”中创建Notebook实例,在Terminal或ipynb文件中直接调用ModelArts SDK的接口。在Notebook中调用SDK,可直接参考接口说明,执行OBS管理、作业管理、模型管理和服务管理等操作。 ModelArts SDK支持在本地安装配置使用。使用时,需进行Session鉴权。
falcon-11B LLM开源大模型基于DevServer适配ModelLinkPyTorch NPU训练指导(6.3.907) LLM开源大模型基于DevServer适配LLamaFactory PyTorch NPU训练指导(6.3.907) LLM开源大模型基于Standard+OBS适配PyTorch
glm4-9b LLM开源大模型基于DevServer适配ModelLinkPyTorch NPU训练指导(6.3.908) LLM开源大模型基于DevServer适配LLamaFactory PyTorch NPU训练指导(6.3.908) LLM开源大模型基于Standard+OBS适配PyTorch