检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 更新API的授权关系。 PUT https://{endpoint}/v1/{project_id}/services/{service_id}/app-auth-apis/{api_id}/app-auth-api
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 POST https://{endpoint}/v1/{project_id}/app-auth/apps/{app_id}/app-code { "workspace_id"
image_version String 镜像版本。 请求示例 如下以查询北京四训练作业所有的公共引擎规格为例(引擎过多,只显示部分)。 GET https://endpoint/v2/{project_id}/training-job-engines 响应示例 状态码: 200 ok {
实际情况,使用generate_datasets.py脚本生成和业务数据分布接近的数据集。 公开数据集下载地址: ShareGPT: https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltered
部署推理服务 本章节介绍如何使用vLLM 0.5.0框架部署并启动推理服务。 前提条件 已准备好DevServer环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Region上的DevServer和昇腾Snt9b资源。 安装过程需要连接互联网git clone,确保容器可以访问公网。
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 PUT https://{endpoint}/v1/{project_id}/app-auth/apps/{app_id}/app-code/{app_code}
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 查询网络详情。 GET https://{endpoint}/v1/{project_id}/networks/{network_name} { } 响应示例 状态码:
URL。如果有queryString,那么在params栏中添加参数。在header中添加认证信息(不同认证方式有不同header,跟https的推理服务相同)。选择单击右上的connect按钮,建立WebSocket连接。 图2 获取API接口调用公网地址 如果信息正确,右下角连接状态处会显示:CONNECTED;
使用generate_datasets.py脚本生成和业务数据分布接近的数据集。 方法一:使用公开数据集 ShareGPT下载地址: https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltered
训练启动脚本说明和参数配置 本代码包中集成了不同模型(包括llama2、llama3、Qwen、Qwen1.5 ......)的训练脚本,并可通过统一的训练脚本一键式运行。训练脚本可判断是否完成预处理后的数据和权重转换的模型。如果未完成,则执行脚本,自动完成数据预处理和权重转换的过程。
非分离部署推理服务 本章节介绍如何使用vLLM 0.6.0框架部署并启动推理服务。 什么是非分离部署 全量推理和增量推理在同一节点上进行。 前提条件 已准备好DevServer环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Region上的DevServer和昇腾Snt9b资源。
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 删除网络。 DELETE https://{endpoint}/v1/{project_id}/networks/{network_name} { } 响应示例 状态码:
训练启动脚本说明和参数配置 本代码包中集成了不同模型(包括llama2、llama3、Qwen、Qwen1.5 ......)的训练脚本,并可通过统一的训练脚本一键式运行。训练脚本可判断是否完成预处理后的数据和权重转换的模型。如果未完成,则执行脚本,自动完成数据预处理和权重转换的过程。
使用generate_datasets.py脚本生成和业务数据分布接近的数据集。 方法一:使用公开数据集 ShareGPT下载地址: https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltered
3]和[100,200]均合法。 说明:只有当样本的标签列表包含物体检测标签时,此字段必选。 请求示例 分页查询团队标注任务下的样本列表 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/workforce-tasks/
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
非分离部署推理服务 本章节介绍如何使用vLLM 0.5.0框架部署并启动推理服务。 什么是非分离部署 全量推理和增量推理在同一节点上进行。 前提条件 已准备好DevServer环境,具体参考资源规格要求。推荐使用“西南-贵阳一”Region上的DevServer和昇腾Snt9b资源。
String 调用失败时的错误码,具体请参见错误码。调用成功时无此字段。 请求示例 如下以更新名为“config”的作业参数为例。 PUT https://endpoint/v1/{project_id}/training-job-configs/config { "config_desc":
version_name String 数据集的版本名称,名称仅包含数字、字母、中划线和下划线,长度是0-32位。 请求示例 查询数据处理任务详情 GET https://{endpoint}/v2/{project_id}/processor-tasks/{task_id} 响应示例 状态码: 200