检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
uggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lora的最大rank数量,支持8、16、32、64。 --max-loras 表示支持的最大lora个数,最大32。
安全升级:待节点上没有作业时再升级,升级周期可能比较长。 强制升级:忽略运行中作业,直接升级,可能会导致运行中作业失败。 开启滚动:开启开关后,支持滚动升级的方式进行驱动升级。当前支持“按节点比例”和“按实例数量”两种滚动方式。 按节点比例:每批次驱动升级的实例数量为“节点比例*资源池实例总数”。 按实
择到该OBS路径。 准备资源池 在ModelArts Studio大模型即服务平台进行模型调优、压缩或部署时,需要选择资源池。MaaS服务支持专属资源池和公共资源池。 专属资源池:专属资源池不与其他用户共享,资源更可控。在使用专属资源池之前,您需要先创建一个专属资源池,然后在AI
如果没有VPC可选,可以单击右侧的“创建虚拟私有云”,跳转到网络控制台,申请创建虚拟私有云。 如果没有子网可选,可以单击右侧的“创建子网”,跳转到网络控制台,创建可用的子网。 支持1个VPC下多个子网的打通,如果VPC下有多个子网,会显示“+”,您可单击“+”即可添加子网(上限10个)。 如果需要使用打通VPC的方式
本方案介绍了在ModelArts的DevServer上使用昇腾计算资源开展MiniCPM-V 2.6 LoRA训练的详细过程。完成本方案的部署,需要先联系您所在企业的华为方技术支持购买DevServer资源。 本方案目前仅适用于企业客户。 资源规格要求 推荐使用“西南-贵阳一”Region上的DevServer资源和Ascend
outputs=output, api_name="greet", queue=False) // AI Gallery不支持应用将事件放入队列中,必须将queue设置为false。 demo.launch(server_name=POD_IP, root_path=ROOT_PATH)
Session模块的主要作用是实现与公有云资源的鉴权,并初始化ModelArts SDK Client、OBS Client。 OBS管理概述 ModelArts SDK支持对OBS的SDK接口进行调用,包括创建OBS桶,上传/下载文件和文件夹,删除OBS对象和桶。 ModelArts SDK具体操作管理请参见如下章节:
训练。 当训练作业发生故障中断本次作业时,代码可自动从训练中断的位置接续训练,加载中断生成的checkpoint,中间不需要改动任何参数(支持预训练、LoRA微调、SFT微调)。 如果要使用自动重启功能,资源规格必须选择八卡规格。 当前功能还处于试验阶段,只有llama3-8B/70B适配。
description 描述信息。 否 str import_data 是否要导入数据,当前只支持表格数据,默认为False。 否 bool work_path_type 数据集输出路径类型,当前仅支持OBS,默认为0。 否 int import_config 标签导入的相关配置,默认为
开始测试使用的最小数据:取值范围[1, 1024],单位可选为“B”、“KB”、“MB”、“GB”“TB”。 日志上传路径:AI诊断日志上传路径。 数据增加方式:当前支持乘法方式。 乘法系数:数值范围[2, 100]。 超过时间:数值范围[150, 3600]。 NCCL Test节点名称列表:不可为空,且被选择的节点须为可用状态。
Data项中输入性能数据所在的Notebook本地或OBS路径,单击Submit按钮。界面参考下图。 图6 对比两份性能数据 性能诊断插件支持设置高级参数,当前支持的高级参数列表如下表所示。 表1 高级参数介绍 序号 键 默认值 是否必填 说明 1 cann_version 8.0.RC1 否
开发者可以通过浏览器入口以Notebook方式访问,也可以通过VSCode远程开发的模式直接接入到云上环境中完成迁移开发与调测,最终生成适配昇腾的推理应用。 当前支持以下两种迁移环境搭建方式: ModelArts Standard:在Notebook中,使用预置镜像进行。 ModelArts Lite DevServer:在裸金属服务器中
安全升级:待节点上没有作业时再升级,升级周期可能比较长。 强制升级:忽略运行中作业,直接升级,可能会导致运行中作业失败。 开启滚动:开启开关后,支持滚动升级的方式升级驱动。当前支持“按节点比例”和“按实例数量”两种滚动方式。 按节点比例:每批次驱动升级的实例数量为“节点比例*资源池实例总数”。 按实例
磁盘大小应该是“cache目录容量 x 0.9”。 裸机的本地磁盘为物理磁盘,无法扩容,如果存储的数据量大,建议使用SFS存放数据,SFS支持扩容。 GPU规格的资源 表1 GPU cache目录容量 GPU规格 cache目录容量 GP Vnt1 800G 8*GP Vnt1 3T
sh的构建方法参考基于ModelArts Standard运行GPU训练作业。 如果预置脚本调用结果不符合预期,可以在容器实例中进行修改和迭代。 针对专属池场景 由于专属池支持SFS挂载,因此代码、数据的导入会更简单,甚至可以不用再关注OBS的相关操作。 可以直接把SFS的目录直接挂载到调试节点的"/mnt/sf
tection/sfd目录。 Step6 服务调用 提前准备人物图片,支持'jpg', 'png', 'jpeg'格式。推荐测试图片大小1280*720或1920*1080。 提前准备音频文件audio,支持'wav', 'mp3', 'mp4'格式。 在代码根目录Wav2lip下创建test_wav2lip
表1 部署模型服务 参数 说明 服务设置 服务名称 自定义部署模型服务的名称。 支持1~64位,以中文、大小写字母开头,只包含中文、大小写字母、数字、中划线、下划线的名称。 描述 部署模型服务的简介。支持256字符。 模型设置 部署模型 单击“选择模型”,选择“模型广场”或“我的模型”下面的模型。
档。 在某些推理场景中,模型输入的shape可能是不固定的,因此需要支持用户指定模型的动态shape,并能够在推理中接收多种shape的输入。在CPU上进行模型转换时无需考虑动态shape问题,因为CPU算子支持动态shape;而在昇腾场景上,算子需要指定具体的shape信息,并
net.get_parameters()), 0.01, 0.9) # 首次训练的epoch初始值,mindspore1.3及以后版本会支持定义epoch_size初始值。 # cur_epoch_num = 0 # 判断输出obs路径中是否有模型文件。如果无文件则默认从头训练
Turbo在同一个网段的ECS,用ECS去挂载SFS Turbo,如果挂载失败,则表示SFS Turbo异常。 是,联系SFS服务的技术支持处理。 否,联系ModelArts的技术支持处理。 父主题: 专属资源池创建训练作业