检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
必须修改。加载tokenizer与Hugging Face权重时存放目录绝对或相对路径。请根据实际规划修改。 template qwen 必须修改。用于指定模板。如果设置为"qwen",则使用Qwen模板进行训练,模板选择可参照表1中的template列 output_dir /home/ma-user/w
model_status 否 String 模型状态,可根据模型的“publishing”、“published”、“failed”三种状态执行查询。 description 否 String 描述信息,可支持模糊匹配。 offset 否 Integer 指定要查询页的索引,默认为“0”。 limit 否
Ratio(双千分之五)这几种评价指标,工具通过阈值过滤筛选出不达标API的输入输出提示用户进行重点关注。使用步骤如下: 通过pip安装msprobe工具。 # shell pip install mindstudio-probe 获取NPU和标杆的dump数据。 PyTorch训练脚本插入dump接口方式如下:
必须修改。加载tokenizer与Hugging Face权重时存放目录绝对或相对路径。请根据实际规划修改。 template qwen 必须修改。用于指定模板。如果设置为"qwen",则使用Qwen模板进行训练,模板选择可参照表1中的template列 output_dir /home/ma-user/w
multi-step参数设置 启动推理服务时,使用multi-step调度需要配置的参数如下表所示。 表1 开启multi-step调度参数配置 服务启动方式 配置项 取值类型 配置说明 offline num_scheduler_steps int 连续运行模型的步数。 默认为1,推荐设置为8 offline
”页面。 在选择模型及配置中,单击“增加模型版本进行灰度发布”添加新版本。 图1 灰度发布 您可以设置两个版本的流量占比,服务调用请求根据该比例分配。其他设置可参考参数说明。完成设置后,单击下一步。 确认信息无误后,单击“提交”部署在线服务。 父主题: Standard推理部署
type 否 String 参数的类型,枚举值如下: str:字符串 int:整型 bool:布尔类型 float:浮点型 description 否 String Workflow工作流配置参数的描述。 example 否 Object Workflow工作流配置参数的样例。
json,数据大小:43.6 MB。 自定义数据 预训练数据:用户也可以自行准备预训练数据。数据要求如下: 使用标准的.json格式的数据,通过设置--json-key来指定需要参与训练的列。请注意huggingface中的数据集具有如下this格式。可以使用–json-key标志更改
为避免产生按需消费,建议通过设置套餐包剩余量预警,以确保在套餐包用尽前及时接收预警。设置套餐包剩余量预警步骤如下: 进入控制台“费用中心 > 资源包”,单击右上角“剩余量预警”。 在“剩余量预警”弹窗中,设置套餐包阈值类型,并在套餐包列表中打开需开启剩余量预警的套餐包开关、设置阈值类型和剩余量阈值。
在ModelArts管理控制台,使用创建好的模型部署为在线服务。 登录云监控服务CES管理控制台,设置ModelArts服务的告警规则并配置主题订阅方式发送通知。具体操作请参考设置告警规则。 当配置完成后,在左侧导航栏选择“云服务监控 > ModelArts”即可查看在线服务的请求情况和资源占用情况,如下图所示。
3.909) Open-clip 训练 推理 PyTorch Open-Clip基于DevServer适配PyTorch NPU训练指导 表6 数字人模型 模型名称 应用场景 软件技术栈 指导文档 Wav2Lip 训练 PyTorch Wav2Lip训练基于DevServer适配PyTorch
clone https://github.com/facebookresearch/DiT.git cd Dit 执行以下命令,安装依赖项。 pip install diffusers==0.28.0 accelerate==0.30.1 timm==0.9.16 准备数据集。 下载K
907版本新增如下内容: 文档和代码中新增对mistral和mixtral模型的适配,并添加训练推荐配置。 文档准备镜像步骤中,仅提供:直接使用基础镜像方案、ECS中构建新镜像方案,删除使用Notebook创建镜像方案。 文档中新增对 llama3 支持长序列文本(sequence_length >
限期使用。如果打开时长限制,除了设置资产免费使用的时长,还可以设置到期后是否续订。 如果是更新已发布资产的版本。 “发布方式”选择“添加资产版本”。 在“资产标题”下拉框中选择已有资产名称。支持搜索资产名称。 设置“ModelArts区域”。 设置可以使用该资产的ModelArts区域,以控制台实际可选值为准。
合法字符串,长度为1-100位。 delete_labels 否 Array of Label objects 删除标签列表。 description 否 String 数据集描述,长度为0-256位,不能包含^!<>=&"'特殊字符。 update_labels 否 Array
不同模型推荐的参数与NPU卡数设置 表1 不同模型推荐的参数与NPU卡数设置 模型 Template 模型参数量 训练策略类型 序列长度cutoff_len 梯度累积值 优化工具 (Deepspeed) 规格与节点数 Qwen-VL Qwen-VL 7B full 2048 gr
911版本仅是使用run_type来指定训练的类型,只能区分 预训练、全参微调和lora微调但实际上预训练和sft是训练的不同阶段,全参、lora是训练参数设置方式。为了更加明确的区分不同策略,以及和llama-factory对齐,6.3.912版本调整以下参数: 新增 STAGE,表示训练的阶段,可以选择的参数包括:
确保容器可以访问公网。 训练支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 支持的模型列表及权重文件地址 支持模型 Template 支持模型参数量 权重文件获取地址 Llama2 llama2 llama2-7b https://huggingface.co/meta-l
NPU的LoRA训练指导(6.3.905) SD1.5基于DevServer适配PyTorch NPU Finetune训练指导(6.3.904) Open-Clip基于DevServer适配PyTorch NPU训练指导 AIGC工具tailor使用指导
911版本仅是使用run_type来指定训练的类型,只能区分 预训练、全参微调和lora微调但实际上预训练和sft是训练的不同阶段,全参、lora是训练参数设置方式。为了更加明确的区分不同策略,以及和llama-factory对齐,6.3.912版本调整以下参数: 新增 STAGE,表示训练的阶段,可以选择的参数包括: