正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
make_captions.py {数据集路径pokemon-dataset路径} python finetune/merge_captions_to_metadata.py {数据集路径pokemon-dataset路径} meta_cap.json 创建default_config.yaml文件,并将以下配置粘贴进去
make_captions.py {数据集路径pokemon-dataset路径} python finetune/merge_captions_to_metadata.py {数据集路径pokemon-dataset路径} meta_cap.json 创建default_config.yaml文件,并将以下配置粘贴进去
auto_stop 否 AutoStop object 训练作业的自动停止配置。
当配置指定IP后,则仅允许IP所在的客户端实现对Notebook的访问。
当配置指定IP后,则仅允许IP所在的客户端实现对Notebook的访问。
如果自定义镜像中不含训练代码则需要配置该参数,如果自定义镜像中已包含训练代码则不需要配置。 需要提前将代码上传至OBS桶中,目录内文件总大小要小于或等于5GB,文件数要小于或等于1000个,文件深度要小于或等于32。
名称不能重复 是 str inputs 数据集标注节点的输入列表 是 LabelingInput或者LabelingInput的列表 outputs 数据集标注节点的输出列表 是 LabelingOutput或者LabelingOutput的列表 properties 数据集标注相关的配置信息
当配置指定IP后,则仅允许IP所在的客户端实现对Notebook的访问。
确认配置费用后单击“去支付”。 进入支付页面,选择支付方式,确认付款,支付订单后即可完成续费。 统一包年/包月资源的到期日 如果您持有多台到期日不同的专属资源池,可以将到期日统一设置到一个日期,便于日常管理和续费。
表2 Query参数 参数 是否必选 参数类型 描述 duration 否 Long 续订时长,推荐该参数在leaseReq中配置,若请求参数中包含duration,则忽略leaseReq的值,且实例自动停止类别为定时停止。(单位:毫秒)。
本方案目前配套的是AscendCloud-3rdLLM-6.3.T041版本,仅适用于部分企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。
Step2 修改训练超参配置 以Llama2-70b和Llama2-13b的SFT微调为例,执行脚本为0_pl_sft_70b.sh 和 0_pl_sft_13b.sh 。 修改模型训练脚本中的超参配置,必须修改的参数如表1所示。
ma-cli ma-job submit命令需要指定一个位置参数YAML_FILE表示作业的配置文件路径,如果不指定该参数,则表示配置文件为空。配置文件是一个YAML格式的文件,里面的参数就是命令的option参数。
节点池是集群中具有相同配置的一组节点,一个节点池包含一个节点或多个节点,您可以创建、更新和删除节点池。 管理Lite Cluster资源池标签:ModelArts支持为资源池添加标签,用来标识云资源,方便您快速搜索到资源池。
请求示例 查询自动化搜索作业支持的yaml配置模板的信息 GET https://endpoint/v2/{project_id}/training-jobs/autosearch/yaml-templates 响应示例 状态码: 200 ok { "yaml_templates
AttributeError: type object 'LlamaAttention' has no attribute '_init_rope' 解决方法:降低transformers版本到4.42:pip install transformers==4.42 --upgrade 问题6:部署在线服务报错
配置方式 选择重置节点的配置方式。 按节点比例:重置任务包含多个节点时,同时被重置节点的最高比例。 按节点数量:重置任务包含多个节点时,同时被重置节点的最大个数。 图1 重置节点 单击“操作记录”可查看当前资源池重置节点的操作记录(如图2)。
--tensor-model-parallel-size:${TP}张量并行数,需要与训练脚本中的TP值配置一样。 --pipeline-model-parallel-size:${PP}流水线并行数,需要与训练脚本中的PP值配置一样。
当配置指定IP后,则仅允许IP所在的客户端实现对Notebook的访问。
--tensor-model-parallel-size:${TP}张量并行数,需要与训练脚本中的TP值配置一样。 --pipeline-model-parallel-size:${PP}流水线并行数,需要与训练脚本中的PP值配置一样。