检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8.0.rc3。 Lite Server驱动版本要求23.0.6 PyTorch版本:2.3.1 确保容器可以访问公网。 文档更新内容 6.3.912版本相对于6.3.911版本新增如下内容:
PT4/alpaca_gpt4_data.json,数据大小:43.6 MB。 自定义数据 预训练数据:用户也可以自行准备预训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。请注意huggingface中的数据集具有如下
配置后重启推理服务生效。 Matmul_all_reduce融合算子 使用Matmul_all_reduce融合算子能提升全量推理性能,该算子对驱动和固件版本要求较高,默认不开启。如需开启,配置以下环境变量。 export USE_MM_ALL_REDUCE_OP=1 关闭Matmul_all_reduce融合算子的命令:
置里面。代码示例请参见train_params.json示例。 “dataset_readme.md” 必选文件,数据集要求说明,定义了模型训练时对数据集的要求,会显示在微调工作流的“准备数据”页面。 自定义镜像规范(推理) 当托管自定义镜像到AI Gallery时,如果镜像要支持AI
认证”,进入统一身份认证(IAM)服务。 在统一身份认证服务页面的左侧导航选择“权限管理 > 权限”,单击右上角的“创建自定义策略”按如下要求设置完成后单击“确定”。 “策略名称”:设置自定义策略名称,例如:允许通过Cloud Shell访问运行中的训练作业。 “策略配置方式”:选择可视化视图。
PT4/alpaca_gpt4_data.json,数据大小:43.6 MB。 自定义数据 预训练数据:用户也可以自行准备预训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。请注意huggingface中的数据集具有如下
推理工具 |——AscendCloud-OPP #依赖算子包 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。训练脚本以分类的方式集中在 scripts 文件夹中。 ${workdir}(例如/home/ma-user/ws ) |──llm_train
本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8.0.RC3。 Server驱动版本要求23.0.6 PyTorch版本:2.2.0 Python版本:3.10 确保容器可以访问公网。 仅支持313T、376T、400T 训练支持的模型列表
本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8.0.rc3。 Lite Server驱动版本要求23.0.6 PyTorch版本:2.1.0 确保容器可以访问公网。 文档更新内容 6.3.911版本相对于6.3.910版本新增如下内容:
Turbo所在的vpc以及子网后单击“确定”。 或者通过单击“更多”页签后选择“关联SFS Turbo”选择自己需要挂载的SFS Turbo,该步骤存在规格要求需要SFS Turbo的ecs规格支持多个网卡否则会提示挂网卡失败。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“模型部署
式。 输入数据格式为csv时,建议文件大小不超过12MB。 如果单张图片/csv文件超过文件12MB,会提示报错,建议调整文件大小使其符合要求,或联系技术支持人员调整文件大小限制。 “请求路径” 批量服务中调用模型的接口URL,表示服务的请求路径,此值来自模型配置文件中apis的url字段。
moe_ep=16。 NPU_MEMORY_FRACTION:表示显存比。 修改config.json文件中的服务化参数。config.json文件修改要求和样例参考附录:config.json文件。 cd /usr/local/Ascend/mindie/latest/mindie-service/
在企业的华为方技术支持购买Server资源。 本方案目前仅适用于企业客户。 资源规格要求 推荐使用“西南-贵阳一”Region上的Server资源和Ascend Snt9B单机。 表1 环境要求 名称 版本 CANN cann_8.0.rc3 驱动 24.1.rc1 PyTorch
Alpaca:用于训练语言模型的数据集格式,文件类型为jsonl。 ShareGPT:用于分享GPT模型对话结果的数据集格式,文件类型为jsonl。 请按数据集格式要求准备数据,否则会导致调优作业失败。 对于csv、xlsx文件,平台会将其转为Alpaca格式或MOSS格式,具体请参见表2。 表2 模型与数据集格式说明
py,目的是为开发者提供模型预处理和后处理的逻辑。 图5 推理模型model目录示意图(需要用户自己准备模型文件) 推理脚本customize_service.py的具体写法要求可以参考模型推理代码编写说明。 本案例中提供的customize_service.py文件具体内容如下: import logging import
|──llm_tools # 推理工具 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。训练脚本以分类的方式集中在 scripts 文件夹中。 ${workdir}(例如使用SFS Turbo的路径:/mnt/sfs_turbo/)
|──llm_tools # 推理工具 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。训练脚本以分类的方式集中在 scripts 文件夹中。 ${workdir}(例如使用SFS Turbo的路径:/mnt/sfs_turbo/)
本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8.0.RC3。 Server驱动版本要求23.0.6 PyTorch版本:2.2.0 Python版本:3.10 确保容器可以访问公网。 仅支持313T、376T、400T 训练支持的模型列表
mox.file.copy_parallel(local_data_dir, obs_data_dir) 不同模型推荐的训练参数和计算规格要求如表1所示。规格与节点数中的1*节点 & 4*Ascend表示单机4卡,以此类推。 表1 不同模型推荐的参数与NPU卡数设置 序号 支持模型
--max-cpu-loras=32 --enable-lora表示开启lora挂载。 --lora-modules后面添加挂载的lora列表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。