检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
一、华南-广州、中国-香港、亚太-曼谷、亚太-新加坡、拉美-圣地亚哥 自动学习介绍 自动学习案例教程 Workflow Workflow(也称工作流,下文中均可使用工作流进行描述)本质是开发者基于实际业务场景开发用于部署模型或应用的流水线工具。在机器学习的场景中,流水线可能会覆盖
export USE_VOCAB_PARALLEL=1 # 是否使用词表并行;默认值为1表示开启并行,取值为0表示关闭并行。对于词表较小的模型(如llama2系模型),关闭并行可以减少推理时延,对于词表较大的模型(如qwen系模型),开启并行可以减少显存占用,以提升推理吞吐量。
RO内存优化等高级特性,以提高训练效率和性能 stage sft 表示当前的训练阶段。可选择值:sft、rm、ppo、dpo。 sft代表指令监督微调; rm代表奖励模型训练; ppo代表PPO训练; dpo代表DPO训练。 finetuning_type full 用于指定微调策略类型,可选择值full、lora。
--enable-lora表示开启lora挂载。 --lora-modules后面添加挂载的lora列表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lo
--enable-lora表示开启lora挂载。 --lora-modules后面添加挂载的lora列表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lo
--enable-lora表示开启lora挂载。 --lora-modules后面添加挂载的lora列表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lo
RO内存优化等高级特性,以提高训练效率和性能 stage sft 表示当前的训练阶段。可选择值:sft、rm、ppo、dpo。 sft代表指令监督微调; rm代表奖励模型训练; ppo代表PPO训练; dpo代表DPO训练。 finetuning_type full 用于指定微调策略类型,可选择值full、lora。
必须大于0,不配置默认值为1。当小于1时,代表滚动升级时增加的实例数的百分比;当大于1时,代表滚动升级时最大扩容的实例数。 max_unavailable Float 必须大于0,不配置默认值为0。当小于1时,代表滚动升级时允许缩容的实例数的百分比;当大于1时,代表滚动升级时允许缩容的实例数。
--enable-lora表示开启lora挂载。 --lora-modules后面添加挂载的lora列表,要求lora地址权重是huggingface格式,当前支持QKV-proj、O-proj、gate_up_proj、down_proj模块的挂载。 --max-lora-rank表示挂载lo
conversations:包含一系列对话对象,每个对象都由发言者(from)和发言内容(value)组成。 from:表示对话的角色,可以是"human"(人类)或"gpt"(机器),表示是谁说的这句话。 value:具体的对话内容。 system:系统提示词,用来为整个对话设定场景或提供指导原则。
单击“部署模型服务”进入部署页面,完成创建配置。 图4 资源设置 表4 部署模型服务 参数 说明 取值样例 服务设置 服务名称 自定义模型服务的名称。 参见表5 描述 部署模型服务的简介。 - 模型设置 部署模型 单击“选择模型”,从“我的模型”列表中选择需要部署的模型。 参见表5 资源设置 资源池类型 资源池分为公共资源池与专属资源池。
conversations:包含一系列对话对象,每个对象都由发言者(from)和发言内容(value)组成。 from:表示对话的角色,可以是"human"(人类)或"gpt"(机器),表示是谁说的这句话。 value:具体的对话内容。 system:系统提示词,用来为整个对话设定场景或提供指导原则。
conversations:包含一系列对话对象,每个对象都由发言者(from)和发言内容(value)组成。 from:表示对话的角色,可以是"human"(人类)或"gpt"(机器),表示是谁说的这句话。 value:具体的对话内容。 system:系统提示词,用来为整个对话设定场景或提供指导原则。
conversations:包含一系列对话对象,每个对象都由发言者(from)和发言内容(value)组成。 from:表示对话的角色,可以是"human"(人类)或"gpt"(机器),表示是谁说的这句话。 value:具体的对话内容。 system:系统提示词,用来为整个对话设定场景或提供指导原则。
eRO内存优化等高级特性,以提高训练效率和性能 stage sft 表示当前的训练阶段。可选择值:【sft、rm、ppo、dpo】 sft代表监督微调; rm代表奖励模型训练; ppo代表PPO训练; dpo代表DPO训练。 finetuning_type full 用于指定微调策略类型,可选择值full、lora。
buntu18.04的镜像。 图1 创建ECS服务器-选择X86架构的公共镜像 登录主机后,安装Docker,可参考Docker官方文档。也可执行以下命令安装docker。 curl -fsSL get.docker.com -o get-docker.sh sh get-docker
登录ModelArts管理控制台,在左侧导航栏中选择“模型部署 > 在线服务”,默认进入“在线服务”列表。 在“在线服务”列表中,单击左上角“部署”,进入“部署”页面。 在“部署”页面,填写在线服务相关参数。 填写基本信息,详细参数说明请参见表1。 表1 基本信息参数说明 参数名称 说明 “名称” 在线服务的名称,请按照界面提示规则填写。
buntu18.04的镜像。 图1 创建ECS服务器-选择X86架构的公共镜像 登录主机后,安装Docker,可参考Docker官方文档。也可执行以下命令安装docker。 curl -fsSL get.docker.com -o get-docker.sh sh get-docker
有标签的数据添加标签。您可以通过创建单人标注作业或团队标注作业对数据进行手工标注,或对任务启动智能标注添加标签,快速完成对图片的标注操作,也可以对已标注图片修改或删除标签进行重新标注。 数据标注功能仅在以下Region支持:华北-北京四、华北-北京一、华东-上海一、华南-广州、西
登录ModelArts管理控制台。 在左侧导航栏中,选择“AI专属资源池 > 弹性节点 Server”,进入“节点”列表。 单击“购买AI专属节点”,进入“购买AI专属节点”页面,在该页面填写相关参数信息。 表2 基础配置参数说明 参数名称 说明 资源类型 裸金属服务器是一款兼具弹性云服务器和物理机性能