检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
团队标注时,成员收不到邮件的可能原因如下: 当数据集中的所有数据已完成标注,即“未标注”数据为空时,创建的团队标注任务,因为没有数据需要标注,不会给团队成员发送标注邮件。在发起团队标注任务时,请确保数据集中存在“未标注”数据。 只有当创建团队标注任务时,标注人员才会收到邮件。
导入任务管理 查询导入任务列表 创建导入任务 查询导入任务状态 父主题: 数据管理
本教程案例是基于ModelArts Lite k8s Cluster运行的,需要购买并开通k8s Cluster资源。 准备代码 准备AscendSpeed训练代码、分词器Tokenizer和推理代码。 准备数据 准备训练数据,可以用本案使用的数据集,也可以使用自己准备的数据集。 准备镜像 准备训练模型适用的容器镜像。
auto-gptq pip install --upgrade accelerate optimum transformers 设置GPTQConfig的参数,并且创建一个数据集用于校准量化的权重,以及一个tokenizer用于准备数据集。 from transformers import
auto-gptq pip install --upgrade accelerate optimum transformers 设置GPTQConfig的参数,并且创建一个数据集用于校准量化的权重,以及一个tokenizer用于准备数据集。 from transformers import
auto-gptq pip install --upgrade accelerate optimum transformers 设置GPTQConfig的参数,并且创建一个数据集用于校准量化的权重,以及一个tokenizer用于准备数据集。 from transformers import
日志提示“No space left on device” 问题现象 训练过程中复制数据/代码/模型时出现如下报错: 图1 错误日志 原因分析 出现该问题的可能原因如下。 磁盘空间不足。 分布式作业时,有些节点的docker base size配置未生效,容器内“/”根目录空间未达到50G,只有默认的10GB,导致作业训练失败。
查询导入任务列表 查询数据集导入任务列表。 dataset.list_import_tasks() 示例代码 查询数据集导入任务列表 from modelarts.session import Session from modelarts.dataset import Dataset
查询导出任务状态 根据任务ID查询数据集导出任务的状态和详情。 dataset.get_export_task_info(task_id) 示例代码 查询数据集导出任务状态 from modelarts.session import Session from modelarts.dataset
version_count Integer 数据处理任务的版本数量。 version_id String 数据处理任务对应的数据集版本ID。 version_name String 数据处理任务对应的数据集版本名称。 work_path WorkPath object 数据处理任务的工作目录。 workspace_id
|── data # 预处理后数据 |── pretrain # 预训练加载的数据 |── finetune # 微调加载的数据 |──converted_weights #
|── data # 预处理后数据 |── pretrain # 预训练加载的数据 |── finetune # 微调加载的数据 |──converted_weights #
创建导出任务 将当前数据集的样本导出到指定的OBS路径下。仅支持图像分类、物体检测、图像分割和自由格式数据集。 dataset.export_data(path) 示例代码 导出数据集到OBS目录 from modelarts.session import Session from
1.5模型的Finetune训练过程。Finetune是指在已经训练好的模型基础上,使用新的数据集进行微调(fine-tuning)以优化模型性能。 训练前需要修改数据集路径、模型路径。数据集路径格式为/datasets/pokemon-dataset/image_0.png,脚本
true:团队标注任务的标注结果自动同步至数据集(默认值) false:团队标注任务的标注结果不自动同步至数据集 data_sync_type 否 Integer 同步类型。可选值如下: 0:不同步 1:同步数据 2:同步标签 3:同步数据和标签 repetition 否 Integer
id}/tasks/{task_id}/stop 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 task_id 是 String 任务ID。
下载或读取文件报错,提示超时、无剩余空间 问题现象 训练过程中复制数据/代码/模型时出现如下报错: 图1 错误日志 原因分析 出现该问题的可能原因如下。 磁盘空间不足。 分布式作业时,有些节点的docker base size配置未生效,容器内“/”根目录空间未达到50GB,只有默认的10GB,导致作业训练失败。
asks/{workforce_task_id} 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 workforce_task_id 是
project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 task_id 是 String 数据处理任务ID。 请求参数 无 响应参数 无 请求示例 删除数据处理任务 DELETE https://{endpoint}/v2/{project_id}/processor-tasks/{task_id}
Lite Cluster 资源池创建失败的原因与解决方法? Cluster资源池节点故障如何定位 特权池信息数据显示均为0%如何解决? 重置节点后无法正常使用?