检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
若用户需要修改,可添加并自定义该变量。 CONVERT_MG2HF TRUE 训练完成的权重文件默认不会自动转换为Hugging Face格式权重。如果需要自动转换,则在运行脚本添加变量CONVERT_MG2HF并赋值TRUE。如果用户后续不需要自动转换,则在运行脚本中必须删除CONVERT_MG2HF变量。
果用户需要修改,可添加并自定义该变量。 CONVERT_MG2HF TRUE 训练完成的权重文件默认不会自动转换为Hugging Face格式权重。如果需要自动转换,则在运行脚本添加变量CONVERT_MG2HF并赋值TRUE。如果用户后续不需要自动转换,则在运行脚本中必须删除CONVERT_MG2HF变量。
若用户需要修改,可添加并自定义该变量。 CONVERT_MG2HF TRUE 训练完成的权重文件默认不会自动转换为Hugging Face格式权重。如果需要自动转换,则在运行脚本添加变量CONVERT_MG2HF并赋值TRUE。如果用户后续不需要自动转换,则在运行脚本中必须删除CONVERT_MG2HF变量。
果用户需要修改,可添加并自定义该变量。 CONVERT_MG2HF TRUE 训练完成的权重文件默认不会自动转换为Hugging Face格式权重。如果需要自动转换,则在运行脚本添加变量CONVERT_MG2HF并赋值TRUE。如果用户后续不需要自动转换,则在运行脚本中必须删除CONVERT_MG2HF变量。
ss|吞吐”格式记录在日志中,AI Gallery通过环境变量找到日志,从中获取实际数据绘制成“吞吐”和“训练LOSS”曲线,呈现在训练的“指标效果”中。具体请参见查看训练效果。 说明: 日志文件中的迭代次数、LOSS和吞吐数据必须按照“迭代次数|loss|吞吐”格式存放,否则AI
trics.json", create_dir=False))) # 指定metric的输出路径,相关指标信息由作业脚本代码根据指定的数据格式自行输出(示例中需要将metric信息输出到训练输出目录下的metrics.json文件中) ], spec=wf.steps
os_version String 节点操作系统版本。 cpu Integer CPU核心数。 created_at String 创建时间,格式为YYYY-MM-DDThh:mm:ss,UTC时间。 description String 节点描述信息。 message String
ain_567k.zip。本节展示了基于COCO2014数据集制作一个演示的demo数据集,若用户有自定义数据集需求,可按以下叙述的数据集格式构建用户自定义数据集。 在${container_work_dir}目录下载以上数据集,并将其放置在${container_work_dir}路径下;
训练作业运行时节点数变化指标。 tasks Array of strings 训练作业子任务名称。 start_time Long 训练作业开始时间,格式为时间戳。 task_statuses Array of TaskStatuses objects 训练在子任务状态信息。 running_records
训练作业运行时节点数变化指标。 tasks Array of strings 训练作业子任务名称。 start_time Long 训练作业开始时间,格式为时间戳。 task_statuses Array of TaskStatuses objects 训练在子任务状态信息。 running_records
# https://conda.io/projects/conda/en/latest/user-guide/install/linux.html#installing-on-linux # 安装 Miniconda3 到基础容器镜像的 /home/ma-user/miniconda3
Workflow工作流配置参数的枚举项。 used_steps 否 Array of strings 使用这个参数的工作流节点。 format 否 String 数据格式。 constraint 否 Map<String,Object> 限制条件。 响应参数 状态码: 201 表6 响应Body参数 参数 参数类型
cap-add的启动命令,在模型发布时将会置空。 “apis定义” 提供模型对外Restfull api数据定义,用于定义模型的输入、输出格式。apis定义填写规范请参见模型配置文件编写说明中的apis参数说明,示例代码请参见apis参数代码示例。 确认信息填写无误,单击“立即创建”,完成模型创建。
model_id Long 训练作业的模型ID。 parameter JSON Array 训练作业的运行参数,为“label-value”格式;当为自定义镜像训练作业的时候,此参数为容器环境变量。详情请查看表8 spec_id Long 训练作业资源规格ID。 data_url String
Workflow工作流配置参数的枚举项。 used_steps 否 Array of strings 使用这个参数的工作流节点。 format 否 String 数据格式。 constraint 否 Map<String,Object> 限制条件。 表15 WorkflowDagPolicies 参数 是否必选
Array of Map<String,String> objects 数据输入为数据集时的相关属性。枚举值: data_format:数据格式。 data_segmentation:数据切分方式。 dataset_type:标注类型。 表10 AlgorithmCreateOutput
Array of Map<String,String> objects 数据输入为数据集时的相关属性。枚举值: data_format:数据格式。 data_segmentation:数据切分方式。 dataset_type:标注类型。 表10 AlgorithmCreateOutput
smn:template:create smn:topic:list smn:topic:publish 若要配置训练作业状态变化通知,需要SMN服务相关操作权限,用于发送模板化的消息通知。 训练作业配置挂载SFS Turbo。 SFS Turbo SFS Turbo ReadOnlyAccess 训练作业配置挂载SFS
训练作业运行时节点数变化指标。 tasks Array of strings 训练作业子任务名称。 start_time Long 训练作业开始时间,格式为时间戳。 task_statuses Array of TaskStatuses objects 训练在子任务状态信息。 running_records
multibyte sequence”报错。 粘贴完代码后,建议检查代码文件是否出现中文注释变为乱码的情况,如果出现该情况请将编辑器改为utf-8格式后再粘贴代码。 在本地电脑中创建训练脚本“train.py”,内容如下: # base on https://github.com/pyt