检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/v2/{project_id}/algorithms 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 表2 Query参数 参数 是否必选 参数类型 描述 offset 否 Integer 查询算法的偏移量,最小
附录:指令微调训练常见问题 问题1:在训练过程中遇到NPU out of memory 解决方法: 将yaml文件中的per_device_train_batch_size调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考各个模型深度学习训
附录:大模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len
附录:大模型推理常见问题 问题1:在推理预测过程中遇到NPU out of memory 解决方法:调整推理服务启动时的显存利用率,将--gpu-memory-utilization的值调小。 问题2:在推理预测过程中遇到ValueError:User-specified max_model_len
ional State Transfer)风格API,支持您通过HTTPS请求调用,调用方法请参见如何调用API。 同时ModelArts还提供多种编程语言的SDK供您使用,SDK的使用方法请参见ModelArts SDK参考。 终端节点 终端节点(Endpoint)即调用API
示例:创建DDP分布式训练(PyTorch+GPU) 本文介绍三种使用训练作业来启动PyTorch DDP训练的方法及对应代码示例。 使用PyTorch预置框架功能,通过mp.spawn命令启动 使用自定义镜像功能 通过torch.distributed.launch命令启动 通过torch
data_spliting_enable Boolean 根据样本标注统计,判断数据集是否可以进行训练/验证集切分。可选值如下: true:数据集可以进行训练/验证集切分 false:数据集无法进行训练/验证集切分 grouped_label_stats Map<String,Array<LabelStats>>
data_spliting_enable Boolean 根据样本标注统计,判断数据集是否可以进行训练/验证集切分。可选值如下: true:数据集可以进行训练/验证集切分 false:数据集无法进行训练/验证集切分 grouped_label_stats Map<String,Array<LabelStats>>
ratio_sample_usage Boolean 指定切分比例后,是否按指定比例随机分配训练-验证集。可选值如下: true:主动随机分配训练集-验证集 false:不主动随机分配训练集-验证集(默认值) sample_state String 样本状态。可选样本状态如下: __ALL__:已标注
附录:训练常见问题 问题1:在训练过程中遇到NPU out of memory 解决方法: 容器内执行以下命令,指定NPU内存分配策略的环境变量,开启动态内存分配,即在需要时动态分配内存,可以提高内存利用率,减少OOM错误的发生。 export PYTORCH_NPU_ALLOC_CONF
然没有反应且无法进行连接。 原因分析 当前环境未装OpenSSH或者OpenSSH未安装在默认路径下,详情请参考VS Code文档。 解决方法 如果当前环境未安装OpenSSH,请下载并安装OpenSSH。 当通过“可选功能”未能成功安装时,请手动下载OpenSSH安装包,然后执行以下步骤:
权重进行。 仅当模型服务处于这几个状态下才能更新权重:运行中、异常、告警、已停止。 步骤1:验证模型权重文件 在进行模型服务升级之前,必须先确认模型权重文件能够成功完成推理任务。只有当验证成功,确保了模型权重的功能性和准确性后,才可以进行模型权重的滚动升级。 获取待更新的模型权重文件,并上传到OBS桶中。
动态benchmark测试结果(示意图) 投机推理benchmark验证 本章节介绍如何进行投机推理benchmark验证,当前投机推理benchmark仅支持在Notebook中进行测试。 进入benchmark_tools目录下。 cd benchmark_tools 运行验证脚本speculative_benchmark_parallel
动态benchmark测试结果(示意图) 投机推理benchmark验证 本章节介绍如何进行投机推理benchmark验证,当前投机推理benchmark仅支持在Notebook中进行测试。 进入benchmark_tools目录下。 cd benchmark_tools 运行验证脚本speculative_benchmark_parallel
vsix文件拖动到远端Notebook中。 右键单击该文件,选择Install Extension VSIX。 方法二:设置远端默认安装的插件 按照VS Code中设置远端默认安装的插件配置,即会在连接远端时自动安装,减少等待时间。 方法三:VS Code官网排查方式https://code.visualstudio
Code打开后未进行远程连接 若本地为Linux系统,见原因分析二。 原因分析一 自动安装VS Code插件ModelArts-HuaweiCloud失败。 解决方法一 方法一:检查VS Code网络是否正常。在VS Code插件市场上搜索ModelArts-HuaweiCloud,如果显示如下则网络异常,请切换代理或使用其他网络。
附录:微调训练常见问题 问题1:在训练过程中遇到NPU out of memory 解决方法: 容器内执行以下命令,指定NPU内存分配策略的环境变量,开启动态内存分配,即在需要时动态分配内存,可以提高内存利用率,减少OOM错误的发生。 export PYTORCH_NPU_ALLOC_CONF
附录:训练常见问题 问题1:在训练过程中遇到NPU out of memory 解决方法: 容器内执行以下命令,指定NPU内存分配策略的环境变量,开启动态内存分配,即在需要时动态分配内存,可以提高内存利用率,减少OOM错误的发生。 export PYTORCH_NPU_ALLOC_CONF
Code打开后未进行远程连接 若本地为Linux系统,见原因分析二。 原因分析一 自动安装VS Code插件ModelArts-HuaweiCloud失败。 解决方法一 方法一:检查VS Code网络是否正常。在VS Code插件市场上搜索ModelArts-HuaweiCloud,若显示如下则网络异常,请切换代理或使用其他网络。
ion 参数说明如表1所示。 表1 参数说明 参数 是否必选 参数类型 说明。 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。 instance_id 是 String 实例ID。 请求消息 请求参数如表2所示。 表2 请求参数 参数 是否必选