检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
不同模型推荐的参数与NPU卡数设置 表1 不同模型推荐的参数与NPU卡数设置 模型 Template 模型参数量 训练策略类型 序列长度cutoff_len 梯度累积值 优化工具 (Deepspeed) 规格与节点数 Qwen-VL Qwen-VL 7B full 2048 gradient_accumulation_steps:
ModelArts支持企业项目管理,可以由企业项目服务来管理同一账号下不同项目的成本。 成本分析 通过华为云费用账单来分析账号下的成本支出情况。 成本优化 长期使用的资源,建议客户使用更优惠的方式购买(包年包月);针对临时使用的资源,您可选择按需的资源规格,避免浪费。
本质上使用transformers进行推理,因为没有框架的优化,执行时间最长。另一方面,由于是使用transformers推理,结果也是最稳定的。对单卡运行的模型比较友好,算力利用率比较高。对多卡运行的推理,缺少负载均衡,利用率低。 在昇腾卡上执行时,需要在 opencompas
如果实例数设置为1,表示后台的计算模式是单机模式;如果实例数设置大于1,表示后台的计算模式为分布式的。您可以根据实际需求进行选择。 推理速度与模型复杂度强相关,您可以尝试优化模型提高预测速度。 ModelArts中提供了模型版本管理的功能,方便溯源和模型反复调优。 父主题: Standard推理部署
行训练。 权重文件支持以下组合方式,用户根据自己实际要求选择: 训练stage 不加载权重 增量训练:加载权重,不加载优化器(默认开启) 断点续训:加载权重+优化器 pt sft ckpt_load_type=0 ckpt_load_type=1 user_converted_ckpt_path=xxx,
过来请求,即会出现该报错。 可以通过以下方式解决问题: 服务预测请求内容过大时,会因数据处理慢导致请求超时,优化预测代码,缩短预测时间。 推理速度与模型复杂度强相关,优化模型,缩短预测时间。 扩容实例数或者选择性能更好的“计算节点规格”,例如使用GPU资源代替CPU资源,提升服务处理能力。
预先准备需要编译下载的依赖包,减少依赖包下载和编译的时间。可通过线下wheel包方式安装运行环境依赖。线下wheel包安装,需确保wheel包与模型文件放在同一目录。 优化模型代码,提高构建模型镜像的编译效率。 父主题: 模型管理
MaaS集成了业界主流开源大模型,含Llama、Baichuan、Yi、Qwen、AIGC等模型系列,所有的模型均基于昇腾AI云服务进行全面适配和优化,使得精度和性能显著提升。开发者无需从零开始构建模型,只需选择合适的预训练模型进行微调或直接应用,减轻了模型集成的负担。 零代码、免配置、免调优模型开发
>= ConditionTypeEnum.IN in ConditionTypeEnum.LT < ConditionTypeEnum.LTE <= ConditionTypeEnum.NOT != ConditionTypeEnum.OR or 左右值支持的类型有:int、fl
--output_path 指定结果输出路径。 string 否 默认为当前目录下。 - --aoe 是否在转换时进行AOE优化。 bool 否 False AOE优化可以提升模型性能,但不是一定有提升,需要注意开启AOE,会导致模型转换耗时极大延长。 --accuracy 指定模型精度,只支持fp16和fp32。
断点续训练是通过checkpoint机制实现。checkpoint机制是在模型训练的过程中,不断地保存训练结果(包括但不限于EPOCH、模型权重、优化器状态、调度器状态)。即便模型训练中断,也可以基于checkpoint接续训练。 当训练作业发生故障中断本次作业时,代码可自动从训练中断的
例如:找不到训练启动文件时,也会提示“No such file or directory”。 原因分析 找不到训练输入数据路径,可能是报错的路径填写不正确。用户请按照以下思路进行逐步排查: 检查报错的路径是否为OBS路径 检查报错的路径是否存在 找不到启动文件,可能是训练作业启动命令的路径填写不正确,参考使用自
量不是很大的情况下,Fine Tune会是一个比较好的选择。 moxing.tensorflow包含所有的接口,对TensorFlow做了优化,里面的实际接口还是TensorFlow的原生接口。 当非MoXing代码中没有Adam名称范围时,需要修改非MoXing代码,在其中增加如下内容:
√ sft(指令微调) √ √ 支持多种权重加载方式: 不加载权重 增量训练:加载权重,不加载优化器 断点续训:加载权重+优化器,可自由指定训练输出目录下批次的权重 故障快恢:加载权重+优化器,默认加载训练输出目录下最新的权重 支持的模型列表 本方案支持以下模型的训练,如表1所示。
等各种设备。 一键部署,可以直接推送部署到边缘设备中,选择智能边缘节点,推送模型。 ModelArts基于Snt3高性能AI推理芯片的深度优化,具有PB级别的单日推理数据处理能力,支持发布云上推理的API百万个以上,推理网络时延毫秒。 父主题: Standard功能介绍
修改训练Yaml配置文件 权重文件支持以下组合方式,用户根据自己实际要求选择: 训练stage 不加载权重 增量训练:加载权重,不加载优化器(默认开启) 断点续训:加载权重+优化器 pt sft ckpt_load_type=0 ckpt_load_type=1 user_converted_c
修改训练Yaml配置文件 权重文件支持以下组合方式,用户根据自己实际要求选择: 训练stage 不加载权重 增量训练:加载权重,不加载优化器(默认开启) 断点续训:加载权重+优化器 pt sft ckpt_load_type=0 ckpt_load_type=1 user_converted_c
能否挖掘出强表达能力的特征,还在于对数据本身以及具体应用场景的深刻理解,这依赖于经验。 调整参数和超参数。 神经网络中:学习率、学习衰减率、隐藏层数、隐藏层的单元数、Adam优化算法中的β1和β2参数、batch_size数值等。 其他算法中:随机森林的树数量,k-means中的cluster数,正则化参数λ等。 增加训练数据作用不大。
matmul、swiglu、rope等算子性能提升,支持vllm推理场景 新增random随机数算子,优化FFN算子,满足AIGC等场景 新增自定义交叉熵融合算子,满足BMTrain框架训练性能要求 优化PageAttention算子,满足vllm投机推理场景 新增CopyBlocks算子,满足vllm框架beam
和更快、更准的训练参数自动调优自动训练 采用自动机器学习技术,基于信息熵上限近似模型的树搜索最优特征变换和基于信息熵上限近似模型的贝叶斯优化自动调参,从企业关系型(结构化)数据中,自动学习数据特征和规律,智能寻优特征&ML模型及参数,准确性甚至达到专家开发者的调优水平 图1 自动学习流程