检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 训练作业的id,可通过创建训练作业生成的训练作业对象查询,如"job_instance.job_id",或从查询训练作业列表的响应中获得。 表2 get_job_log请求参数说明 参数 是否必选 参数类型 描述 task_id 否 String 要查看哪个工作节点的日志
您可以根据需要选择一种方式进行续费,具体如图1所示。 图1 专属资源池生命周期 专属资源池从购买到期前,处于正常运行阶段,资源状态为“运行中”。 到期后,资源状态变为“已过期”。 到期未续费时,专属资源池首先会进入宽限期,宽限期到期后仍未续费,资源状态变为“已冻结”。 超过宽限期
用户也可以自行准备训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。请注意huggingface中的数据集具有如下this格式。可以使用–json-key标志更改数据集文本字段的名称,默认为text。在维基百科数据集中,它有四列,分别是i
获取软件和镜像 分类 名称 获取路径 插件代码包 AscendCloud-6.3.906-xxx.zip软件包中的AscendCloud-AIGC-6.3.906-xxx.zip 说明: 包名中的xxx表示具体的时间戳,以包名的实际时间为准。 获取路径:Support-E。 说明: 如果没有
本案例需要创建一个Notebook,以便能够通过它访问SFS Turbo服务。随后,通过Notebook将OBS中的数据上传至SFS Turbo,并对存储在SFS Turbo中的数据执行编辑操作。 训练 预训练/微调 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。
本文档适配昇腾云ModelArts6.3.912版本,请参考表1获取配套版本的软件包,请严格遵照版本配套关系使用本文档。 本文档中的模型运行环境是ModelArts Lite Cluster。 本文档中的CCE集群版本选择v1.27~1.28。版本使用的容器引擎为Containerd。 镜像适配的Cann版本是cann_8
AscendCloud-6.3.910-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了本教程中使用到的推理部署代码和推理评测代码、推理依赖的算子包。代码包具体说明请参见模型软件包结构说明。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.910 版本。 说明:
AscendCloud-6.3.911-xxx.zip 说明: 软件包名称中的xxx表示时间戳。 包含了本教程中使用到的推理部署代码和推理评测代码、推理依赖的算子包。代码包具体说明请参见模型软件包结构说明。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.911 版本。 说明:
用户也可以自行准备训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。请注意huggingface中的数据集具有如下this格式。可以使用–json-key标志更改数据集文本字段的名称,默认为text。在维基百科数据集中,它有四列,分别是i
--device=/dev/davinci7:挂载NPU设备,示例中挂载了8张卡davinci0~davinci7。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 Step4 进入容器 通过容器名称进入容器中。默认使用ma-user用户执行后续命令。
在模型代码推理文件customize_service.py中,需要添加一个子类,该子类继承对应模型类型的父类,各模型类型的父类名称和导入语句如请参考表1。本案例中调用父类“_inference(self, data)”推理请求方法,因此下文代码中不需要重写方法。 1 2 3 4 5
hard_coefficient Double 难度系数,范围为[0,1]。 hard_reasons String 标签级别难例原因。通过中划线间隔单个难例原因ID。 source_map String source的映射。 表4 annotation标注属性 参数 参数类型 描述
创建test-benchmark目录,该目录存放训练生成的权重文件及训练日志。 # 任意目录创建 mkdir test-benchmark 修改yaml文件参数中model_name_or_path、dataset_dir和dataset或eval_dataset参数配置,修改代码目录下accuracy_cfgs
https://huggingface.co/meta-llama/Meta-Llama-3.1-70B-Instruct 说明:当前版本中yi-34b、qwen1.5-32b模型暂不支持单卡启动。 操作流程 图1 操作流程图 表2 操作任务流程说明 阶段 任务 说明 准备工作 准备资源
本案例需要创建一个Notebook,以便能够通过它访问SFS Turbo服务。随后,通过Notebook将OBS中的数据上传至SFS Turbo,并对存储在SFS Turbo中的数据执行编辑操作。 预训练 预训练 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。
本文档适配昇腾云ModelArts 6.3.911版本,请参考表1获取配套版本的软件包,请严格遵照版本配套关系使用本文档。 本文档中的模型运行环境是ModelArts Lite Cluster。 本文档中的CCE集群版本选择v1.27~1.28。版本使用的容器引擎为Containerd。 镜像适配的Cann版本是cann_8
本案例需要创建一个Notebook,以便能够通过它访问SFS Turbo服务。随后,通过Notebook将OBS中的数据上传至SFS Turbo,并对存储在SFS Turbo中的数据执行编辑操作。 预训练 预训练 介绍如何进行预训练,包括训练数据处理、超参配置、创建训练任务及性能查看。
nfs_server_path String nfs服务端路径。 local_path String 挂载到训练容器中的路径。 read_only Boolean nfs挂载卷在容器中是否只读。 表53 log_export_path 参数 参数类型 描述 obs_url String 训练作业日志保存的OBS地址。
创建test-benchmark目录,该目录存放训练生成的权重文件及训练日志。 # 任意目录创建 mkdir test-benchmark 修改yaml文件参数中model_name_or_path、dataset_dir和dataset或eval_dataset参数配置,修改代码目录下accuracy_cfgs
co/models?sort=trending&search=QWEN+AWQ 方式二:使用AutoAWQ量化工具进行量化。 在Notebook中运行以下命令下载并安装AutoAWQ源码。 git clone -b v0.2.5 https://github.com/casper-hansen/AutoAWQ