检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
和PP流水线并行(pipeline-model-parallel-size),可以尝试增加 TP和PP的值,一般TP×PP≤NPU数量,并且要被整除,具体调整值可参照表2进行设置。 可调整参数:MBS指最小batch处理的样本量(micro-batch-size)、GBS指一个iteration所处理的样本量(gl
和PP流水线并行(pipeline-model-parallel-size),可以尝试增加 TP和PP的值,一般TP×PP≤NPU数量,并且要被整除,具体调整值可参照表2进行设置。 可调整参数:MBS指最小batch处理的样本量(micro-batch-size)、GBS指一个iteration所处理的样本量(gl
和PP流水线并行(pipeline-model-parallel-size),可以尝试增加 TP和PP的值,一般TP×PP≤NPU数量,并且要被整除,具体调整值可参照表2进行设置。 可调整参数:MBS指最小batch处理的样本量(micro-batch-size)、GBS指一个iteration所处理的样本量(gl
time per iteration)*1000,其global batch size(GBS)、seq_len(SEQ_LEN)为训练时设置的参数,具体参数查看表1。 loss收敛情况:日志里存在lm loss参数 ,lm loss参数随着训练迭代周期持续性减小,并逐渐趋于稳定
和PP流水线并行(pipeline-model-parallel-size),可以尝试增加 TP和PP的值,一般TP×PP≤NPU数量,并且要被整除,具体调整值可参照表2进行设置。 可调整参数:MBS指最小batch处理的样本量(micro-batch-size)、GBS指一个iteration所处理的样本量(gl
time per iteration)*1000,其global batch size(GBS)、seq_len(SEQ_LEN)为训练时设置的参数,具体参数查看表1。 loss收敛情况:日志里存在lm loss参数 ,lm loss参数随着训练迭代周期持续性减小,并逐渐趋于稳定
评审分数,当前可取A/B/C/D四个值,从高到低排列。 worker_id 否 String 标注成员ID,可调用标注成员列表接口获取。 响应参数 无 请求示例 团队标注审核。设置是否通过为“true”,评审分数为“A”。 { "comments" : [ { "worker_id" : "8c15ad0
表2 请求Header参数 参数 是否必选 参数类型 描述 Content-Type 否 String 消息体的类型。设置为text/plain,返回临时预览链接。设置为application/octet-stream,返回临时下载链接。 X-Auth-Token 是 String 用户token。
修改msvd_eval.sh参数 修改scripts/video/eval/msvd_eval.sh中的参数 模型存放的地方,如果根据第2步的方式保存的模型,设置如下: CKPT="llama-vid/llama-vid-7b-full-224-video-fps-1" 调用openai的key,评
表3 请求Header参数 参数 是否必选 参数类型 描述 Content-Type 否 String 消息体的类型。设置为text/plain,返回临时预览链接。设置为application/octet-stream,返回临时下载链接。 X-Auth-Token 是 String 用户token。
MindSpore Lite云侧推理包解压缩后,设置`LITE_HOME`环境变量为解压缩的路径,例如: export LITE_HOME=$some_path/mindspore-lite-2.2.10-linux-aarch64 设置环境变量LD_LIBRARY_PATH: export
worker_id 否 String 标注成员ID,可调用标注成员列表接口获取。 响应参数 无 请求示例 提交验收任务的样本评审意见。设置是否通过为“true”,评审分数为“A”。 { "comments" : [ { "worker_id" : "8c15ad0
试启动后新修改的配置信息可以在当前执行中立即生效。 停止 单击指定节点查看详情,可以对运行中的节点进行停止操作。 继续运行 对于单个节点中设置了需要运行中配置的参数时,节点运行会处于“等待操作”状态,用户完成相关数据的配置后,可单击“继续运行”按钮并确认继续执行当前节点。 部分运行Workflow节点
模型推荐的参数与NPU卡数设置 不同模型推荐的训练参数和计算规格要求如表1所示。规格与节点数中的1*节点 & 4*Ascend表示单机4卡,以此类推。 表1 不同模型推荐的参数与NPU卡数设置 序号 支持模型 支持模型参数量 文本序列长度 并行参数设置 规格与节点数 1 llama2
在模型详情页,单击右侧“发布”,在发布模型页面编辑发布信息后,单击“发布”。 表1 发布模型的参数说明 参数名称 说明 中文名称 模型发布后显示的名称,在创建模型时设置的名称,此处不可编辑。 任务类型 选择合适的任务类型。 许可证 必填项,根据业务需求选择合适的许可证类型。 描述 必填项,填写资产简介,模
“保存路径”:即导出数据存储的路径。建议不要将数据存储至当前数据集所在的输入路径或输出路径。 图1 导出到OBS 数据导出成功后,您可以前往您设置的保存路径,查看到存储的数据。 在“数据集概览页”,单击右上角“导出历史”,在弹出的“任务历史”对话框中,可以查看该数据集之前的导出任务历史。
wf.AlgorithmParameters(name="save_model_secs", value=wf.Placeholder(name="save_model_secs", placeholder_type=wf.PlaceholderType.INT, default=60
|──llm_tools # 推理工具 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。训练脚本以分类的方式集中在scripts文件夹中。 ${workdir}(例如/home/ma-user/ws ) |──llm_train
端口有问题,请联系技术支持。 端口无问题请继续远端排查。 远端排查 排查/home/ma-user目录权限是否为755/750,不是该权限,请执行如下命令设置权限。 chmod 755 /home/ma-user 排查/home/ma-user/.ssh目录权限是否为755/750,不是该权限请修改。
执行的时长。 events 否 Array of strings 执行的事件。 labels 否 Array of strings 为执行记录设置的标签。 data_requirements 否 Array of DataRequirement objects 节点steps使用到的数据。