检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
联系您所在企业的华为方技术支持。 提示:本文档适用于OBS+SFS Turbo的数据存储方案,不适用于仅OBS存储方案。通过OBS对象存储服务(Object Storage Service)与SFS Turbo文件系统联动,可以实现灵活数据管理、高性能读取等。 约束限制 如果要使
能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主
get_spec_list(session=session) 参数session即是1初始化的数据。返回的是一个字典,其中flavors值是一个列表,描述了训练服务支持的所有规格的信息。每个元素中flavor_id是可直接用于远程训练任务的计算规格,max_num是该规格的最大节点数。如果用户知道要使用的计算规格,可以略过这一步。
请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 grants
请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 quotas
能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主
能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主
节点的类型,枚举值如下: job 训练 labeling 标注 release_dataset 数据集发布 model 模型发布 service 服务部署 mrs_job MRS作业 dataset_import 数据集导入 create_dataset 创建数据集 inputs 否 Array
发布数据集到AI Galley参数说明 参数 说明 资产标题 在AI Gallery显示的资产名称。 来源 可选择“ModelArts”、“对象存储服务(OBS)”、“本地上传”。 ModelArts区域 选择当前控制台所在的区域。 OBS区域 选择与当前控制台一致的区域。 存储位置 用来存储发布的资产。
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考Step3 创建服务启动脚本 python -m vllm.entrypoints.openai.api_server --model <your_model>
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考Step6 启动推理服务 python -m vllm.entrypoints.openai.api_server --model <your_model> --quantization
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考步骤六 启动推理服务 python -m vllm.entrypoints.openai.api_server --model <your_model> --quantization
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考Step3 创建服务启动脚本 python -m vllm.entrypoints.openai.api_server --model <your_model>
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考步骤六 启动推理服务 python -m vllm.entrypoints.openai.api_server --model <your_model> --quantization
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考Step3 启动推理服务 python -m vllm.entrypoints.openai.api_server --model <your_model> --quantization
false } 2. 启动vLLM,如果是使用命令行的方式,指定--quantization "gptq"参数,其他参数请参考Step3 创建服务启动脚本 python -m vllm.entrypoints.openai.api_server --model <your_model>
节点的类型,枚举值如下: job 训练 labeling 标注 release_dataset 数据集发布 model 模型发布 service 服务部署 mrs_job MRS作业 dataset_import 数据集导入 create_dataset 创建数据集 inputs Array
Query参数 参数 是否必选 参数类型 描述 type 否 String 作业所属业务。可选值如下: train:训练作业 infer:推理服务 notebook:Notebook作业 status 否 String 作业状态。可选值如下: Queue:排队中 Pending:等待中
储方案使用“SFS(存放数据)+普通OBS桶(存放代码)”,采用分布式训练。 表1 不同场景所需服务及购买推荐 场景 OBS SFS SWR DEW ModelArts VPC ECS EVS 单机单卡 按需购买。(并行文件系统) × 免费。 免费。 包月购买。 免费。 × 按需购买。
模型:结构实现和社区一致,Huggingface模型开箱即用,同时可以快速适配新模型。 调用:提供高性能算子下发和图模式两种方案,兼顾性能和灵活性。 特性:服务调度、特性实现和社区一致,针对昇腾硬件做亲和替换和优化。 接口:离线SDK、在线OpenAI Server和社区完全一致,无缝迁移。 Ascend-vLLM支持的特性介绍