检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
transformers==4.45.0 修改为:transformers==4.44.2 以创建llama2-13b预训练作业为例,执行脚本0_pl_pretrain_13b.sh时,命令如下: cd /home/ma-user/work/llm_train/AscendSpeed;
json 如果使用其他数据集,需要先执行步骤二:非sharegpt格式数据集转换(可选)转换数据集格式为sharegpt格式。 执行如下脚本将sharegpt格式数据生成为训练data数据集。 python allocation.py \ --outdir outdir0/sharegpt_0_99_mufp16
json 如果使用其他数据集,需要先执行步骤二:非sharegpt格式数据集转换(可选)转换数据集格式为sharegpt格式。 执行如下脚本将sharegpt格式数据生成为训练data数据集。 python allocation.py \ --outdir outdir0/sharegpt_0_99_mufp16
json 如果使用其他数据集,需要先执行步骤二:非sharegpt格式数据集转换(可选)转换数据集格式为sharegpt格式。 执行如下脚本将sharegpt格式数据生成为训练data数据集。 python allocation.py \ --outdir outdir0/sharegpt_0_99_mufp16
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查是否安装docker。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine
创建算法的准备工作。 完成数据准备:已在ModelArts中创建可用的数据集,或者您已将用于训练的数据集上传至OBS目录。 准备训练脚本,并上传至OBS目录。训练脚本开发指导参见开发用于预置框架训练的代码或开发用于自定义镜像训练的代码。 在OBS创建至少1个空的文件夹,用于存储训练输出的内容。
准备工作 数据已完成准备:已在ModelArts中创建可用的数据集,或者您已将用于训练的数据集上传至OBS目录。 请准备好训练脚本,并上传至OBS目录。训练脚本开发指导参见开发用于预置框架训练的代码。 在训练代码中,用户需打印搜索指标参数。 已在OBS创建至少1个空的文件夹,用于存储训练输出的内容。
Gallery使用指南 AI Gallery是一个AI资产共享平台,为高校科研机构、AI应用开发商、解决方案集成商、企业级/个人开发者等群体,提供安全、开放的共享环境。 AI Gallery简介 AI Gallery简介 使用指导 发布和管理AI Gallery模型 发布和管理AI Gallery的AI应用
启动tensorboard对应的summary目录过大,导致tensorboard加载summary导致OOM。 处理方法 检查summary目录是否存在其他文件,如有请删除。 检查summary目的文件是否过大(比如大于5GB),如果有请减小summary。 父主题: OBS操作相关故障
如果文件较小,可以将OBS上的数据保存成“.tar”包。训练开始时从OBS上下载到“/cache”目录,解压以后使用。 如果文件较大,可以保存成多个“.tar”包,在入口脚本中调用多进程进行并行解压数据。不建议把散文件保存到OBS上,这样会导致下载数据很慢。 在训练作业中,使用如下代码进行“.tar”包解压: import
选择OBS桶中训练code文件夹所在路径,例如“obs://test-modelarts/code/”。 启动文件 选择代码目录中训练作业的Python启动脚本。例如“obs://test-modelarts/code/main.py”。 超参 当资源规格为单机多卡时,需要指定超参world_size和rank。
法时被称为“使用自定义脚本”模式。 ModelArts支持了大多数主流的AI引擎,这些预置引擎预加载了一些额外的python包,例如numpy等;也支持您通过在代码目录中使用“requirements.txt”文件安装依赖包。 预置训练引擎 开发自定义脚本 使用自定义算法开发模型教程
包含特殊字符!<>=&’”。 execution_code 否 String 存放执行脚本的OBS路径,如果模型没有输出“customize_service.py”则需要通过该参数指定。推理脚本必须放于模型所在路径(请参见“source_location”参数)的model目录下
ppk文件”(由Step2密钥对.pem文件生成)。 单击“Open”。如果首次登录,PuTTY会显示安全警告对话框,询问是否接受服务器的安全证书。单击“Accept”将证书保存到本地注册表中。 图6 询问是否接受服务器的安全证书 成功连接到云上Notebook实例。 图7 连接到云上Notebook实例
transformers==4.45.0 修改为:transformers==4.44.2 以创建llama2-13b预训练作业为例,执行脚本0_pl_pretrain_13b.sh时,命令如下: cd /home/ma-user/work/llm_train/AscendSpeed;
按照报错提示,需要排查以下几个问题: 检查moxing.file.copy_parallel()的第一个参数中是否有文件,否则会出现报错:No files to copy 文件存在,请执行2。 文件不存在,请忽略该报错继续执行后续操作。 检查复制的OBS的路径是否与开发环境或训练作业在同一个区域。
├── mmlu-exam, mmlu数据集 ├── ceval-exam, ceval数据集 ├── eval_test.py # 启动脚本,建立线程池发送请求,并汇总结果 ├── readme.md # 说明文档 ├── requirements.txt # 第三方依赖
ceval-exam, ceval数据集 ├── eval_test.py # 启动脚本,建立线程池发送请求,并汇总结果 ├── service_predict.py # 发送请求的服务 执行精度测试启动脚本eval_test.py,具体操作命令如下,可以根据参数说明修改参数。 python
“C:\Users”目录下的文件名必须和Windows登录用户名完全一致。 右键单击.ssh文件夹,选择“属性”。然后单击“安全”页签。 单击“高级”,在弹出的高级安全设置界面单击“禁用继承”, 在弹出的“阻止继承”窗口单击“从此对象中删除所有继承的权限”。此时所有用户都将被删除。 添
roughout字段,seq_lenth取值在训练脚本中可以查看。 单机8卡吞吐量一般为1650tokens/s/p,双机16卡吞吐量一般为1625tokens/s/p。 说明: 自定义训练或自定义镜像训练,需要提前在训练启动脚本(例如“train.py”)中定义好迭代次数、LO