检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
换时设置的值相等。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加CP值(CP ≥ 2)。对应训练参数 context-parallel-size 。 (此参数目前仅适用于Llama3系列模型长序列训练)
用户在使用数据管理的过程中,ModelArts需要访问用户的OBS等依赖服务,需要用户进行在“权限管理”页面中进行委托授权。具体操作参考使用委托授权(推荐)。 创建数据集 本示例使用OBS中的数据作为数据集的输入目录创建数据集。参考如下操作创建一个物体检测类型的数据集,并将数据导入到数据集中。
换时设置的值相等。 CP 1 表示context并行,默认为1。应用于训练长序列文本的模型。如果训练时SEQ_LEN超过32768长度,则推荐增加CP值(CP ≥ 2)。对应训练参数 context-parallel-size 。 (此参数目前仅适用于Llama3系列模型长序列训练)
scope参数定义了Token的作用域,示例中获取的Token仅能访问project下的资源。Modelarts使用区域的Endpoint(非全局域名)调用该接口,推荐您将scope设置为project。您还可以设置Token作用域为某个账号下所有资源或账号的某个project下的资源,详细定义请参见获取用户Token。
会创建一个控制平面节点。资源池创建后,控制节点高可用的开启或关闭状态不可修改。 控制节点分布:可以选择随机分配,也可以指定可用区。控制节点推荐尽可能随机分布在不同可用区以提高容灾能力。 随机分配:系统会随机分配控制节点的可用区,尽可能将控制节点随机分布在不同可用区以提高容灾能力
架的分布式训练和调测,如果MindSpore要进行多机分布式训练调试,则每台机器上都必须有8张卡。 使用自定义镜像创建训练作业时,镜像大小推荐15GB以内,最大不要超过资源池的容器引擎空间大小的一半。镜像过大会直接影响训练作业的启动时间。ModelArts公共资源池的容器引擎空间
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 Step3 启动训练脚本
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 步骤三 启动训练脚本
议。 图6 环境变量分析 表2 当前支持的环境变量 环境变量名称 释义 ASCEND_GLOBAL_LOG_LEVEL plog日志级别,推荐设置为2(warning级别),低级别日志等级会导致cpu侧性能问题。 HCCL_RDMA_TC HCCL通信相关环境变量,通常无需设置该
0.0和8080不可更改。 高阶参数说明: --enable-prefix-caching:如果prompt的公共前缀较长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动脚本中添加此参数表示使用,不添加表示不使用。 --quantization:推理量化参
because {reason}. 创建代理映射失败,因为{原因}。 根据提示失败原因进行排查。 400 ModelArts.3817 Failed to update the AI proxy mapping because {reason}. 更新代理映射路径失败,因为{原因}。 根据提示失败原因进行排查。
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 步骤三 启动训练脚本
由于模型中LoRA微调训练存在已知的精度问题,因此不支持TP(tensor model parallel size)张量模型并行策略,推荐使用PP(pipeline model parallel size)流水线模型并行策略,具体详细参数配置如表2所示。 步骤三 启动训练脚本
0.0和8080不可更改。 高阶参数说明: --enable-prefix-caching:如果prompt的公共前缀较长或者多轮对话场景下推荐使用prefix-caching特性。在推理服务启动脚本中添加此参数表示使用,不添加表示不使用。 --quantization:推理量化参
ckerhub官网查找即可。 构建流程:安装所需的apt包、驱动,配置ma-user用户、导入conda环境、配置Notebook依赖。 推荐使用Dockerfile的方式构建镜像。这样既满足dockerfile可追溯及构建归档的需求,也保证镜像内容无冗余和残留。 每层构建的时候
在云服务详情页面,单击节点页签的选择“前往控制台”跳转到云服务器控制台。 在云服务器控制台的节点基本信息页面,单击右上角“远程登录”选择登录方式远程登录云服务器节点。推荐使用CloudShell登录,直接页面单击“CloudShell登录”跳转到CloudShell页面,输入专属资源池信息登录服务器。具体步
DatasetVersionConfig 表4 DatasetVersionConfig 属性 描述 是否必填 数据类型 version_name 数据集版本名称,推荐使用类似V001的格式,不填则默认从V001往上递增。 否 str或者Placeholder version_format 版本格式,默认
${docker_ip}:服务部署的IP地址,${docker_ip}替换为宿主机实际的IP地址。 --port:推理服务端口。 --dataset:数据集路径,推荐使用human-eval-v2-20210705.jsonl数据集,数据集可从https://github.com/openai/huma
${docker_ip}:服务部署的IP地址,${docker_ip}替换为宿主机实际的IP地址。 --port:推理服务端口。 --dataset:数据集路径,推荐使用human-eval-v2-20210705.jsonl数据集,数据集可从https://github.com/openai/huma
ckerhub官网查找即可。 构建流程:安装所需的apt包、驱动,配置ma-user用户、导入conda环境、配置Notebook依赖。 推荐使用Dockerfile的方式构建镜像。这样既满足dockerfile可追溯及构建归档的需求,也保证镜像内容无冗余和残留。 每层构建的时候