检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Eagle投机小模型训练 本章节提供eagle小模型自行训练的能力,客户可通过本章节,使用自己的数据训练eagle小模型,并使用自行训练的小模型进行eagle推理。支持llama1系列、llama2系列和Qwen2系列模型。 步骤一:安装Eagle Eagle训练适配代码存放在代码包AscendCloud-LLM-x
Eagle投机小模型训练 本章节提供eagle小模型自行训练的能力,客户可通过本章节,使用自己的数据训练eagle小模型,并使用自行训练的小模型进行eagle推理。支持llama1系列、llama2系列和Qwen2系列模型。 步骤一:安装Eagle Eagle训练适配代码存放在代码包AscendCloud-LLM-x
Eagle投机小模型训练 本章节提供eagle小模型自行训练的能力,客户可通过本章节,使用自己的数据训练eagle小模型,并使用自行训练的小模型进行eagle推理。支持llama1系列、llama2系列和Qwen2系列模型。 步骤一:安装Eagle Eagle训练适配代码存放在代码包AscendCloud-LLM-x
启动任务”。 只能在“全部”页签下启动自动分组任务或查看任务历史。 在弹出的“自动分组”对话框中,填写参数信息,然后单击“确定”。 “分组数”:填写2~200之间的整数,指将图片分为多少组。 “结果处理方式”:“更新属性到当前样本中”,或者“保存到对象存储服务(OBS)”。 “属
随着华为自研AI框架MindSpore与昇腾全栈的联合发布,ModelArts平台对昇腾芯片及其开发生态的支持不断加强,提供了多款支持昇腾系列的神经网络算法。其中Ascend Snt9系列可为用户解决图像分类和物体检测两大类模型训练场景;Ascend Snt3系列可应用于图像分类、物体检测
https://huggingface.co/deepseek-ai/DeepSeek-V2-Lite 各模型支持的卡数请参见附录:基于vLLM不同模型推理支持最小卡数和最大序列说明章节。 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3
TP×PP×CP)的值进行整除。 模型推荐的参数与NPU卡数设置 不同模型推荐的训练参数和计算规格要求如表2所示。规格与节点数中的1*节点 & 4*Ascend表示单机4卡,以此类推。 表2 不同模型推荐的参数与NPU卡数设置 序号 支持模型 支持模型参数量 训练策略类型 文本序列长度(SEQ_LEN)
TP×PP×CP)的值进行整除。 模型推荐的参数与NPU卡数设置 不同模型推荐的训练参数和计算规格要求如表2所示。规格与节点数中的1*节点 & 4*Ascend表示单机4卡,以此类推。 表2 不同模型推荐的参数与NPU卡数设置 序号 支持模型 支持模型参数量 训练策略类型 文本序列长度(SEQ_LEN)
Integer 核数。 表46 Gpu 参数 参数类型 描述 unit_num Integer gpu卡数。 product_name String 产品名。 memory String 内存。 表47 Npu 参数 参数类型 描述 unit_num String npu卡数。 product_name
果使用开源权重,建议不指定dtype,使用开源权重默认的dtype。 --tensor-parallel-size:模型并行数。取值需要和启动的NPU卡数保持一致,可以参考1。此处举例为1,表示使用单卡启动服务。 --block-size:PagedAttention的block大小,推荐设置为128。
com/ascend-1980: "8" # 需求卡数,key保持不变。 limits: huawei.com/ascend-1980: "8" # 限制卡数,key保持不变。 volumeMounts:
准备模型文件和权重文件OBS路径下的文件传输至/home/mind/model路径下。 --tensor-parallel-size:并行卡数。此处举例为1,表示使用单卡启动服务。 --host:服务部署的IP,使用本机IP 0.0.0.0。 --port:服务部署的端口8080。
描述信息,可支持模糊匹配。 offset 否 Integer 指定要查询页的索引,默认为“0”。 limit 否 Integer 指定每一页返回的最大条目数,默认为“280”。 sort_by 否 String 指定排序字段,可选“create_at”、“model_version”、“mode
准备模型文件和权重文件OBS路径下的文件传输至/home/mind/model路径下。 --tensor-parallel-size:并行卡数。此处举例为1,表示使用单卡启动服务。 --host:服务部署的IP,使用本机IP 0.0.0.0。 --port:服务部署的端口8080。
动修复异常或隔离节点,并重启训练作业,提高训练成功率。 图2 开启故障重启 Step5 其他配置 选择用户自己的专属资源池,以及规格与节点数。本次qwenvl模型选用 8* ascend-snt9b。 图3 选择资源池规格 在OBS中新建一个log目录,作业日志选择OBS中的该路径,训练作业的日志信息则保存该路径下。
动修复异常或隔离节点,并重启训练作业,提高训练成功率。 图2 开启故障重启 Step5 其他配置 选择用户自己的专属资源池,以及规格与节点数。本次qwenvl模型选用 8* ascend-snt9b。 图3 选择资源池规格 在OBS中新建一个log目录,作业日志选择OBS中的该路径,训练作业的日志信息则保存该路径下。
如何保证自定义镜像能不因为超过35G而保存失败? 可以从如下几方面考虑: 请选择较小的基础镜像创建Notebook实例,这样在实例中可操作的空间才会大,可自由安装的包才能更多,一般建议原始的启动Notebook的基础镜像在SWR侧查看大小不要超过6G。 镜像保存主要保存在/hom
且输入输出长度也在一定范围内变化时,模型的延迟和吞吐。该场景能模拟实际业务下动态的发送不同长度请求,能评估推理框架在实际业务中能支持的并发数。 性能benchmark验证使用到的脚本存放在代码包AscendCloud-LLM-xxx.zip的llm_tools/llm_evaluation目录下。
tensor-model-parallel-size 8 表示张量并行。 pipeline-model-parallel-size 1 表示流水线并行。一般此值与训练节点数相等,与权重转换时设置的值相等。 context_parallel_size 1 表示context并行,默认为1。应用于训练长序列文本的模
/scripts/install.sh; sh ./scripts/llama2/0_pl_pretrain_13b.sh 选择用户自己的专属资源池,以及规格与节点数。防止训练过程中出现内存溢出的情况,用户可参考表2进行配置。 图2 选择资源池规格 新增SFS Turbo挂载配置,并选择用户创建的SFS Turbo文件系统。