检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
raw_data = load_pickle_data(file_path) labels = raw_data[b'labels'] data = raw_data[b'data'] filenames = raw_data[b'filenames']
data_sets = DataSets() if fake_data: data_sets.train = DataSet([], [], fake_data=True, one_hot=one_hot) data_sets.validation
"sys_data_cleaning", "label_zh" : "label_zh to translate", "label_en" : "data cleaning" }, { "template_id" : "sys_data_validation"
任务类型,即数据处理模板ID。可选值如下: sys_data_analyse:特征分析 sys_data_cleaning:数据清洗 sys_data_augmentation:数据增强 sys_data_validation:数据校验 sys_data_selection:数据筛选 name
__AUTO_ANNOTATION__:待确认 请求参数 无 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 data_path String 数据集数据存储路径。 data_spliting_enable Boolean 根据样本标注统计,判断数据集是否可以进行训练/验证集切分。可选值如下:
/llama-7B \ --data_path data_for_sharegpt.json \ --seed 42 \ --max_length 2048 --dtype bfloat16 其中 outdir:生成的训练data地址。 end_num:生成的data总条数。 npu_indices:使用哪些NPU卡。
/llama-7B \ --data_path data_for_sharegpt.json \ --seed 42 \ --max_length 2048 --dtype bfloat16 其中 outdir:生成的训练data地址。 end_num:生成的data总条数。 npu_indices:使用哪些NPU卡。
/llama-7B \ --data_path data_for_sharegpt.json \ --seed 42 \ --max_length 2048 --dtype bfloat16 其中 outdir:生成的训练data地址。 end_num:生成的data总条数。 npu_indices:使用哪些NPU卡。
inputs=wf.steps.JobInput(name="data_url", data=obs_data), # JobStep的输入在运行时配置;data字段也可使用data=wf.data.OBSPath(obs_path="fake_obs_path")表示
ets/{dataset_id}/sync-data 响应示例 无 状态码 状态码 描述 200 OK 401 Unauthorized 403 Forbidden 404 Not Found 错误码 请参见错误码。 父主题: 数据管理(旧版)
co/datasets/Wild-Heart/Tom-and-Jerry-VideoGeneration-Dataset 进行data cache 由于CogVideoX1.5对显存需求较大,直接训练显存不足,训练采用data cache,将text encoder和vae两个不参与训练的模型对数据集进行预编码处理。
output_storage = wf.data.OutputStorage(name="output_storage", description="输出目录统一配置") # 创建标注任务 data = wf.data.DatasetPlaceholder(name="input_data") label_step
将下载的原始数据存放在/home/ma-user/ws/training_data目录下。具体步骤如下: 进入到/home/ma-user/ws/目录下。 创建目录“training_data”,并将原始数据放置在此处。 mkdir training_data 数据存放参考目录结构如下: ${workdir
仓中的镜像名,作为模型推理使用的镜像,架构选择ARM,类型选择CPU和ASCEND。 图8 注册镜像 Step9 通过openssl创建SSL pem证书 在ECS中执行如下命令,会在当前目录生成cert.pem和key.pem,并将生成的pem证书上传至OBS。证书用于后续在推理生产环境中部署HTTPS推理服务。
id同时出现,但不可与data_url或data_source同时出现。 dataset_version_id 否 String 训练作业的数据集版本ID。应与dataset_id同时出现,但不可与data_url或data_source同时出现。 data_source 否 JSON
"s3://test-obs/classify/data/animals/8.jpg", "new_source" : "obs://test-obs/classify/output/7PoIhUzSk92OglQrTxr/Data/8.jpg", "signed_origin_source"
并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/datasets/{dataset_id}/sync-data/status 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id
id同时出现,但不可与data_url或data_source同时出现。 dataset_version_id 否 String 训练作业的数据集版本ID。应与dataset_id同时出现,但不可与data_url或data_source同时出现。 data_source 否 JSON
/llama-7B \ --data_path data_for_sharegpt.json \ --seed 42 \ --max_length 2048 \ --dtype bfloat16 其中 outdir:生成的训练data 地址 end_num:生成的data总条数 used_npus:使用哪些NPU
/llama-7B \ --data_path data_for_sharegpt.json \ --seed 42 \ --max_length 2048 \ --dtype bfloat16 其中 outdir:生成的训练data 地址 end_num:生成的data总条数 used_npus:使用哪些NPU