正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过Token认证的方式访问在线服务 如果在线服务的状态处于“运行中”,则表示在线服务已部署成功,部署成功的在线服务,将为用户提供一个可调用的API,此API为标准Restful API。在集成至生产环境之前,需要对此API进行调测,您可以使用以下方式向在线服务发起预测请求: 方
deploy:部署 delete:删除 node_id String 边缘节点ID。在IEF上创建边缘节点后可得到。 请求示例 GET https://{endpoint}/v1/{project_id}/services/{service_id}/logs 响应示例 状态码: 200
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 删除网络。 DELETE https://{endpoint}/v1/{project_id}/networks/{network_name} { } 响应示例 状态码:
Object> 数据集的样本统计信息,包括样本元信息的统计,json格式。 data_validate Boolean 发布前数据是否经过校验算法校验。可选值如下: true:数据经过校验 false:数据未经过校验 deleted_sample_count Integer 已删除的样本数量。
200,3]和[100,200]均合法。 说明:只有当样本的标签列表包含物体检测标签时,此字段必选。 请求示例 分页查询样本列表 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/data-annotations/samples
卡类型。 unit String 单位 memory Integer 卡内存大小。 npu Integer NPU数。 请求示例 GET https://{endpoint}/v1/{project_id}/services/specifications 响应示例 状态码: 200 服务部署规格列表
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
3]和[100,200]均合法。 说明:只有当样本的标签列表包含物体检测标签时,此字段必选。 请求示例 分页查询团队标注任务下的样本列表 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/workforce-tasks/
内置属性:三元组关系标签的指向实体类型,创建关系标签时必须指定,该参数仅文本三元组数据集使用。 请求示例 查询数据集的统计信息 GET https://{endpoint}/v2/{project_id}/datasets/WxCREuCkBSAlQr9xrde/data-annotations/stats
URL。如果有queryString,那么在params栏中添加参数。在header中添加认证信息(不同认证方式有不同header,跟https的推理服务相同)。选择单击右上的connect按钮,建立WebSocket连接。 图4 获取API接口调用公网地址 如果信息正确,右下角连接状态处会显示:CONNECTED;
"application/json"); // Set a request URL in the format of https://{Endpoint}/{URI}. request.setUrl(url); //
"obs://test/data/1.jpg"} {"source": "s3://test/data/2.jpg"} {"source": "https://infers-data.obs.cn-north-1.myhuaweicloud.com:443/xgboosterdata/data
${container_name} bash Step4 下载并安装Open-clip源码包 从官网下载Open-clip源码包。 git clone https://github.com/mlfoundations/open_clip.git cd open_clip git reset --hard
自定义引擎创建模型规范 使用自定义引擎创建AI应用,用户可以通过选择自己存储在SWR服务中的镜像作为AI应用的引擎,指定预先存储于OBS服务中的文件目录路径作为模型包,来创建AI应用,轻松地应对ModelArts平台预置引擎无法满足个性化诉求的场景。 ModelArts将自定义引
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
指定网络地址进行访问,也可以将网络地址映射为本地目录后进行访问。 可以通过互联网或专线访问。需要指定桶地址进行访问,使用的是HTTP和HTTPS等传输协议。 只能在BMS中挂载使用,不能被操作系统应用直接访问,需要格式化成文件系统进行访问。 使用场景 如高性能计算、媒体处理、文件共享和内容管理和Web服务等。
调度时间单位,可选DAYS/HOURS/MINUTES。 type String 调度类型,当前仅支持取值为stop,即运行指定时间后自动停止。 请求示例 GET https://{endpoint}/v1/{project_id}/services 响应示例 状态码: 200 服务列表 { "total_count"
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 打通VPC。 PATCH https://{endpoint}/v1/{project_id}/networks/{network_name} { "spec" : {
进入在线服务详情页,查看APP认证方式的服务API。 图15 API接口公网地址 复制API接口公网地址,并在地址后添加"/",进行页面访问,例如: https://infer-app-modelarts-cn-southwest-2.myhuaweicloud.com/v1/infers/ab