-
Step2 准备脚本文件并上传至OBS中 - AI开发平台ModelArts
Step2 准备脚本文件并上传至OBS中 准备本案例所需训练脚本mindspore-verification.py文件和Ascend的启动脚本文件(共5个)。 训练脚本文件具体内容请参见训练脚本mindspore-verification.py文件。 Ascend的启动脚本文件包括以下
-
Step2 准备脚本文件并上传至OBS中 - AI开发平台ModelArts
Step2 准备脚本文件并上传至OBS中 准备本案例所需训练脚本mindspore-verification.py文件和Ascend的启动脚本文件(共5个)。 训练脚本文件具体内容请参见训练脚本mindspore-verification.py文件。 Ascend的启动脚本文件包括以下
-
训练的数据集预处理说明 - AI开发平台ModelArts
b.sh 训练脚本后,脚本检查是否已经完成数据集预处理。 如果已完成数据集预处理,则直接执行预训练任务。若未进行数据集预处理,则会自动执行 scripts/llama2/1_preprocess_data.sh 。 预训练数据集预处理参数说明 预训练数据集预处理脚本 script
-
训练的数据集预处理说明 - AI开发平台ModelArts
sh 训练脚本后,脚本检查是否已经完成数据集预处理的过程。 若已完成数据集预处理,则直接执行预训练任务。若未进行数据集预处理,则会自动执行 scripts/llama2/1_preprocess_data.sh 。 预训练数据集预处理参数说明 预训练数据集预处理脚本script
-
部署在线服务时,自定义预测脚本python依赖包出现冲突,导致运行出错 - AI开发平台ModelArts
部署在线服务时,自定义预测脚本python依赖包出现冲突,导致运行出错 导入模型时,需同时将对应的推理代码及配置文件放置在模型文件夹下。使用Python编码过程中,推荐采用相对导入方式(Python import)导入自定义包。 如果ModelArts推理框架代码内部存在同名包,
-
训练中的权重转换说明 - AI开发平台ModelArts
0_pl_pretrain_13b.sh 脚本。脚本同样还会检查是否已经完成权重转换的过程。 若已完成权重转换,则直接执行预训练任务。若未进行权重转换,则会自动执行 scripts/llama2/2_convert_mg_hf.sh 。脚本具体参数如下: HuggingFace转Megatron参数说明
-
训练tokenizer文件说明 - AI开发平台ModelArts
修改tokenizer目录下面modeling_qwen.py文件的第38和39行,修改后如图3所示。 图3 修改Qwen tokenizer文件 父主题: 训练脚本说明
-
训练tokenizer文件说明 - AI开发平台ModelArts
修改tokenizer目录下面modeling_qwen.py文件的第38和39行,修改后如图3所示。 图3 修改Qwen tokenizer文件 父主题: 训练脚本说明
-
华为云BMS GO SDK和Python脚本实现裸金属服务器的操作系统切换 - AI开发平台ModelArts
华为云BMS GO SDK和Python脚本实现裸金属服务器的操作系统切换 场景描述 华为云BMS裸金属服务器在停机状态可以切换操作系统,本文介绍以下两种切换操作系统的方式: 使用BMS Go SDK的方式切换操作系统 使用Python封装API的方式切换操作系统 切换操作系统需满足以下条件:
-
为什么无法启动训练? - AI开发平台ModelArts
为什么无法启动训练? 如果启动脚本选择了不属于本工程的代码,则无法启动训练,错误信息如下图所示。建议将启动脚本添加至本工程,或者是打开启动脚本所在工程后,再启动训练作业。 图1 错误信息 父主题: PyCharm Toolkit使用
-
transformers调用cuda上的操作,或者执行卡死 - AI开发平台ModelArts
transformers库的training_args.py目前适配的是CUDA的部分操作,需要替换为适配NPU的脚本。 处理方法 training_args.py替换为适配NPU的脚本,替换的脚本请见training_args.py。 父主题: 常见问题
-
报错提示“RuntimeError: Default process group has not been initialized, please make sure to call init - AI开发平台ModelArts
please make sure to call init_process_group.”。 原因分析 原因由于单卡脚本中未添加参数“--local_rank -1”,单卡执行脚本如下,需要指定local_rank为-1为单卡模式。 # ptuning/run_npu_1d.sh export
-
预训练任务 - AI开发平台ModelArts
Step2 启动训练脚本 请根据表1修改超参值后,再启动训练脚本。 单机启动 以GLM3-6B为例,单机训练启动样例命令如下,以自己实际为准。 进入代码目录/home/ma-user/ws/xxx-Ascend/llm_train/AscendSpeed下执行启动脚本。xxx-Ascend请根据实际目录替换。
-
Step2 在Notebook中调试模型 - AI开发平台ModelArts
在调试过程中,如果有修改模型文件或者推理脚本文件,需要重启run.sh脚本。执行如下命令先停止nginx服务,再运行run.sh脚本。 #查询nginx进程 ps -ef |grep nginx #关闭所有nginx相关进程 kill -9 {进程ID} #运行run.sh脚本 sh run.sh
-
模型推理代码编写说明 - AI开发平台ModelArts
本章节介绍了在ModelArts中模型推理代码编写的通用方法及说明,针对常用AI引擎的自定义脚本代码示例(包含推理代码示例),请参见自定义脚本代码示例。本文在编写说明下方提供了一个TensorFlow引擎的推理代码示例以及一个在推理脚本中自定义推理逻辑的示例。 ModelArts推理因API网关(API
-
获取自动化搜索作业yaml模板的信息 - AI开发平台ModelArts
获取自动化搜索作业yaml模板的信息 功能介绍 获取自动化搜索作业yaml模板的信息。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{projec
-
获取自动化搜索作业yaml模板的内容 - AI开发平台ModelArts
获取自动化搜索作业yaml模板的内容 功能介绍 获取自动化搜索作业yaml模板的内容。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{projec
-
提前终止自动化搜索作业的某个trial - AI开发平台ModelArts
提前终止自动化搜索作业的某个trial 功能介绍 提前终止自动化搜索作业的某个trial。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{pro
-
预训练数据处理 - AI开发平台ModelArts
idx格式文件,以满足训练要求。 Alpaca数据处理说明 数据预处理脚本preprocess_data.py存放在代码包的“llm_train/AscendSpeed/ModelLink/tools/”目录中,脚本具体内容如下。 #数据预处理 python ./tools/preprocess_data
-
基于训练作业启动PyTorch DDP on Ascend加速卡训练示例 - AI开发平台ModelArts
ash ${MA_JOB_DIR}/code/run_torch_ddp_npu.sh”。其中,启动脚本的完整代码请参见代码示例。 代码示例 训练作业的启动脚本示例如下。 启动脚本中设置plog生成后存放在“/home/ma-user/modelarts/log/modelart