检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
JobInput 参数 参数类型 描述 name String 输入数据的名称,支持1到64位只包含英文、数字、下划线(_)和中划线(-)的字符。 type String 输入项类型。枚举值如下: dataset:数据集 obs:OBS data_selector:数据选择 data
ons 参数 参数类型 描述 os.modelarts/description String 网络资源描述,用于说明用于某种场景。不能包含字符!<>=&"'。 表12 NetworkSpec 参数 参数类型 描述 cidr String 网络的cidr。取值范围: 172.16.0
请求参数如表2所示。 表2 参数说明 参数 是否必选 参数类型 说明 config_desc 否 String 对训练作业的描述,默认为空,字符串的长度限制为[0,256]。 worker_server_num 是 Integer 训练作业worker的个数,最大值请从查询作业资源规格接口获取。
请参见训练tokenizer文件说明。 步骤三 启动训练脚本 请根据表1修改超参值后,修改config.yaml中的${command},替换为容器中执行训练的命令。Llama2-70B建议为4机32卡训练。 多机启动 以 Llama2-70B 为例,修改多机config.yam
请参见训练tokenizer文件说明。 步骤三 启动训练脚本 请根据表1修改超参值后,修改config.yaml中的${command},替换为容器中执行训练的命令。Llama2-70B建议为4机32卡训练。 多机启动 以 Llama2-70B 为例,修改多机config.yam
修改config.yaml中的${command} 请根据步骤二 修改训练超参配置修改超参值后,修改config.yaml中的${command},替换为容器中执行训练的命令。Llama2-70B建议为4机32卡训练。 多机启动 以 Llama2-70B 为例,修改多机config.yam
driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 进入容器。需要将${container_name}替换为实际的容器名称。启动容器默认使用ma-user用户,后续所有操作步骤都在ma-user用户下执行。 docker exec -it ${container_name}
迁移至昇腾设备上训练、模型精度对齐以及性能调优。 迁移环境准备 本文以弹性裸金属作为开发环境。弹性裸金属支持深度自定义环境安装,可以方便地替换驱动、固件和上层开发包,具有root权限,结合配置指导、初始化工具及容器镜像可以快速搭建昇腾开发环境。 开通裸金属服务器资源请参见DevS
启动训练脚本 启动训练前需修改启动训练脚本demo.sh 内容。具体请参考•修改启动脚本。 对于falcon-11B训练任务开始前,需手动替换tokenizer中的config.json,具体请参见falcon-11B模型。 修改完yaml配置文件后,启动训练脚本;模型不同最少n
请参见训练tokenizer文件说明。 步骤三 启动训练脚本 请根据表1修改超参值后,修改config.yaml中的${command},替换为容器中执行训练的命令。Llama2-70B建议为4机32卡训练。 多机启动 以 Llama2-70B 为例,修改多机config.yam
自定义模型名称。 支持1~64位,以中文、大小写字母开头,只包含中文、大小写字母、数字、下划线(_)、中划线(-)和(.)。 描述 模型简介。支持100字符。 权重设置与词表 默认选择“自定义权重”。使用用户自定义的权重文件,需要先将权重文件上传至OBS桶中。且权重文件必须满足对应模型的文件格式要求,详情请参见约束限制。
下。获取路径参见获取软件和镜像。 解压AscendCloud-AIGC-*.zip文件,解压后将里面指定文件与对应CogVideo文件进行替换,执行以下命令即可。 cd /home/ma-user unzip AscendCloud-AIGC-*.zip -d ./AscendCloud
参数说明 表1 部署predictor参数说明 参数 是否必选 参数类型 描述 description 否 String 服务描述,不超过100个字符,不设置此参数时,表示不更新。 status 否 String 服务状态,可设置状态为running或stopped来启动、停止服务,不设
JobInput 参数 参数类型 描述 name String 输入数据的名称,支持1到64位只包含英文、数字、下划线(_)和中划线(-)的字符。 type String 输入项类型。枚举值如下: dataset:数据集 obs:OBS data_selector:数据选择 data
“代码目录”:选择已创建的OBS代码目录路径,例如“/test-modelarts-xx/pytorch/mnist-code/”(test-modelarts-xx需替换为您的OBS桶名称)。 “启动文件”:选择代码目录下上传的训练脚本“train.py”。 “输入”:单击“增加训练输入”,设置训练输入的“
workspace_id String 指定作业所处的工作空间,默认值为“0”。 description String 对训练作业的描述,默认为“NULL”,字符串的长度限制为[0, 256]。 create_time Long 训练作业创建时间戳,单位为毫秒,创建成功后由ModelArts生成返回,无需填写。
包年/包月”的节点支持批量续费、批量开通/修改自动续费功能。 图2 节点批量操作 如下图所示,在单个节点的操作列,支持对单个节点进行删除、替换、修复、重置、重启、授权、运行作业列表、开启高可用冗余、关闭高可用冗余等操作,具体介绍请参见修复Standard专属资源池故障节点。还支持编辑资源标签操作。
步骤三:修改config.yaml中的${command} 请根据步骤二:修改训练超参配置修改超参值后,修改config.yaml中的${command},替换为容器中执行训练的命令。Llama2-70B建议为4机32卡训练。 多机启动 以 Llama2-70B 为例,修改多机config.yam
在本例子,结果为2,048,000)。 i = 320 * 200 * 32; AI编译器中,常量折叠是将计算图中预先可以确定输出值的节点替换成常量,并对计算图进行一些结构简化的操作,例如ADDN操作,以及在推理过程中的batch normalization操作等。 以BN折叠为例,如下表示折叠后获得的性能收益。
请参见训练tokenizer文件说明。 步骤三 启动训练脚本 请根据表1修改超参值后,修改config.yaml中的${command},替换为容器中执行训练的命令。Llama2-70B建议为4机32卡训练。 多机启动 以 Llama2-70B 为例,修改多机config.yam