检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
--backend:服务类型,支持tgi、vllm、mindspore、openai等。本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口,和推理服务端口8080。 --url:如果以vllm接口方式启动服务,API接口公网地
序列说明 基于vLLM(v0.6.0)部署推理服务时,不同模型推理支持的最小昇腾卡数和对应卡数下的max-model-len长度说明,如下面的表格所示。 以下值是在gpu-memory-utilization为0.9时测试得出,为服务部署所需的最小昇腾卡数及该卡数下推荐的最大ma
序列说明 基于vLLM(v0.6.0)部署推理服务时,不同模型推理支持的最小昇腾卡数和对应卡数下的max-model-len长度说明,如下面的表格所示。 以下值是在gpu-memory-utilization为0.9时测试得出,为服务部署所需的最小昇腾卡数及该卡数下推荐的最大ma
序列说明 基于vLLM(v0.6.0)部署推理服务时,不同模型推理支持的最小昇腾卡数和对应卡数下的max-model-len长度说明,如下面的表格所示。 以下值是在gpu-memory-utilization为0.9时测试得出,为服务部署所需的最小昇腾卡数及该卡数下推荐的最大ma
--backend:服务类型,支持tgi、vllm、mindspore、openai等。本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口,和推理服务端口8080。 --url:如果以vllm接口方式启动服务,API接口公网地
序列说明 基于vLLM(v0.6.3)部署推理服务时,不同模型推理支持的最小昇腾卡数和对应卡数下的max-model-len长度说明,如下面的表格所示。 以下值是在gpu-memory-utilization为0.9时测试得出,为服务部署所需的最小昇腾卡数及该卡数下推荐的最大ma
过SSH登录,不同机器之间网络互通。 购买Lite Server资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主
SampleLabel objects 样本标签列表,为空表示删除样本的所有标签。 metadata 否 SampleMetadata object 样本metadata属性键值对。 sample_id 否 String 样本ID。 sample_type 否 Integer 样本类型。可选值如下:
以实际取值为准。 响应参数 状态码:200 表4 响应Body参数 参数 参数类型 描述 app ApigAppDetailInfo object 创建的APP基础信息。 表5 ApigAppDetailInfo 参数 参数类型 描述 app_codes Array of strings
API描述。字符长度不超过255。 响应参数 状态码:200 表4 响应Body参数 参数 参数类型 描述 api AuthTypeApiBasicInfo object API认证详情。 表5 AuthTypeApiBasicInfo 参数 参数类型 描述 api_id String API编号。 api_method
标签的多维度属性,如标签为“音乐”,可能包含属性“风格”、“歌手”等。 name 否 String 标签名称。 property 否 LabelProperty object 标签基本属性键值对,如颜色、快捷键等。 type 否 Integer 标签类型。可选值如下: 0:图像分类 1:物体检测 3: 图像分割
以实际取值为准。 响应参数 状态码:200 表4 响应Body参数 参数 参数类型 描述 app ApigAppDetailInfo object 创建的APP基础信息。 表5 ApigAppDetailInfo 参数 参数类型 描述 app_codes Array of strings
Boolean 是否为v1兼容模式。 run_user String 引擎默认启动用户uid。 image_info image_info object 引擎具体信息。 表4 image_info 参数 参数类型 描述 cpu_image_url String cpu规格下对应镜像。 gpu_image_url
Gallery在线推理服务部署模型。 如果使用自定义镜像进行训练,操作步骤可以参考使用AI Gallery微调大师训练模型,其中“训练任务类型”默认选择“自定义”,且不支持修改。 如果使用自定义镜像进行部署推理服务,操作步骤可以参考使用AI Gallery在线推理服务部署模型,其中“推
ModelArts计费模式概述 ModelArts服务提供包年/包月和按需计费两种计费模式,以满足不同场景下的用户需求。如您需要快速了解ModelArts服务不同计费模式的具体价格,请参见ModelArts价格详情。 包年/包月:一种预付费模式,即先付费再使用,按照订单的购买周期
如何登录并上传镜像到SWR? 本章节介绍如何上传镜像到容器镜像服务SWR。 Step1 登录SWR 登录容器镜像服务控制台,选择区域。 单击右上角“创建组织”,输入组织名称完成组织创建。您可以自定义组织名称,本示例使用“deep-learning”,实际操作时请重新命名一个组织名
"application/json" } } ] 将模型部署为在线服务 参考部署为在线服务将模型部署为在线服务。 在线服务创建成功后,您可以在服务详情页查看服务详情。 您可以通过“预测”页签访问在线服务。 图5 访问在线服务 父主题: Standard推理部署
标签的多维度属性,如标签为“音乐”,可能包含属性“风格”、“歌手”等。 name 否 String 标签名称。 property 否 LabelProperty object 标签基本属性键值对,如颜色、快捷键等。 type 否 Integer 标签类型。可选值如下: 0:图像分类 1:物体检测 3: 图像分割
描述 enable_app_auth Boolean APP是否已授权。 app_auth_api AppAuthApiAuthInfo object API已授权的APP的基本信息。 表5 AppAuthApiAuthInfo 参数 参数类型 描述 api_id String API编号。
以实际取值为准。 响应参数 状态码:200 表4 响应Body参数 参数 参数类型 描述 app ApigAppDetailInfo object 创建的APP基础信息。 表5 ApigAppDetailInfo 参数 参数类型 描述 app_codes Array of strings