检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
app名称。 app_remark 否 String app备注。 workspace_id 否 String 工作空间ID。获取方法请参见查询工作空间列表。未创建工作空间时默认值为“0”,存在创建并使用的工作空间,以实际取值为准。 响应参数 状态码:200 表4 响应Body参数
on、MetricInfo 表3 MetricInfo 属性 描述 是否必填 数据类型 input_data metric文件的存储对象,当前仅支持JobStep节点的输出 是 JobStep的输出 json_key 需要获取的metric信息对应的key值 是 str 结构内容详解:
任务不同调整参数target-pipeline-parallel-size,默认为1。 权重转换完成后,需要将转换后的文件与原始Hugging Face模型中的文件进行对比,查看是否缺少如tokenizers.json、tokenizer_config.json、special_tokens_map.json等to
任务不同调整参数target-pipeline-parallel-size,默认为1。 权重转换完成后,需要将转换后的文件与原始Hugging Face模型中的文件进行对比,查看是否缺少如tokenizers.json、tokenizer_config.json、special_tokens_map.json等to
任务不同调整参数target-pipeline-parallel-size,默认为1。 权重转换完成后,需要将转换后的文件与原始Hugging Face模型中的文件进行对比,查看是否缺少如tokenizers.json、tokenizer_config.json、special_tokens_map.json等to
任务不同调整参数target-pipeline-parallel-size,默认为1。 权重转换完成后,需要将转换后的文件与原始Hugging Face模型中的文件进行对比,查看是否缺少如tokenizers.json、tokenizer_config.json、special_tokens_map.json等to
String 用户项目ID。获取方法请参见获取项目ID和名称。 training_job_id 是 String 训练作业ID。获取方法请参见查询训练作业列表。 表2 Query参数 参数 是否必选 参数类型 描述 offset 否 Integer 数据条目偏移量。 limit 否 Integer
C-6.3.910-xxx.zip 文件名中的xxx表示具体的时间戳,以包名发布的实际时间为准。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.910 版本。 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
”、“VC_TASK_INDEX”、“MA_NUM_GPUS”为ModelArts训练容器中预置的环境变量。训练容器环境变量详细介绍可参考查看训练容器环境变量。 通过obsutils,将代码文件夹放到OBS上,然后通过OBS将代码传至SFS相应目录中。 在SFS中将代码文件Swi
包含了本教程中使用到的模型训练代码、推理部署代码和推理评测代码。代码包具体说明请参见模型软件包结构说明。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.912 版本。 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
max_length:模型的max_length。 dtype:为模型dtype,默认为bfloat16。 执行完成后,记得unset环境变量,否则会导致后续推理服务启动出错。 unset EAGLE_TARIN_MODE 执行完成后,如果used_npus>1,则需要将训练生成data数据重新分配为8
max_length:模型的max_length。 dtype:为模型dtype,默认为bfloat16。 执行完成后,记得unset环境变量,否则会导致后续推理服务启动出错。 unset EAGLE_TARIN_MODE 执行完成后,如果used_npus>1,则需要将训练生成data数据重新分配为8
max_length:模型的max_length。 dtype:为模型dtype,默认为bfloat16。 执行完成后,记得unset环境变量,否则会导致后续推理服务启动出错。 unset EAGLE_TARIN_MODE 执行完成后,如果used_npus>1,则需要将训练生成data数据重新分配为8
$(readlink -f "$0")) 表示执行脚本时的路径。 MODEL_NAME llama2-13b 对应模型名称。 STAGE pt 表示当前的训练阶段。可选择值:【pt、sft】 sft:代表监督微调; pt:代表预训练; FINETUNING_TYPE full 表示训练策略。可选择值【full、lora】:
会话对象,初始化方法请参考Session鉴权。 job_id 是 String 训练作业的id,可通过创建训练作业生成的训练作业对象查询,如"job_instance.job_id",或从查询训练作业列表的响应中获得。 表2 返回参数说明 参数 参数类型 描述 kind String 训练作业类型。默认使用job。
模型的最大长度,默认为2048 --dtype str 模型dtype,默认为bfloat16 执行完成后,记得unset环境变量,否则会导致后续推理服务启动出错。 unset EAGLE_TARIN_MODE 执行完成后,如果used_npus>1,则需要将训练生成data数据重新分配为8
输出目录管理:开发者在编辑开发工作流时可以对所有的输出路径做统一管理,用户无需手动创建输出目录,只需要在工作流运行前配置存储根路径,并且可以根据开发者的目录编排规则在指定目录下查看输出的数据信息。此外同一个工作流的多次运行支持输出到不同的目录下,对不同的执行做了很好的数据隔离。 常用方式 InputStorage(路径拼接)
包含了本教程中使用到的模型训练代码、推理部署代码和推理评测代码。代码包具体说明请参见模型软件包结构说明。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.910 版本。 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
包含了本教程中使用到的模型训练代码、推理部署代码和推理评测代码。代码包具体说明请参见模型软件包结构说明。 获取路径:Support-E,在此路径中查找下载ModelArts 6.3.911版本。 说明: 如果上述软件获取路径打开后未显示相应的软件信息,说明您没有下载权限,请联系您所在企业的华为方技术支持下载获取。
PyTorch模型获取模型shape,主要有如下两种方式获取: 方式一:通过stable diffusion的PyTorch模型获取模型shape。 方式二:通过查看ModelArts-Ascend代码仓库,根据每个模型的configs文件获取已知的shape大小。 下文主要介绍如何通过方式一获取模型shape。