检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
CogVideoX1.5 5b模型基于Lite Server适配PyTorch NPU全量训练指导(6.3.912) 本文档主要介绍如何在ModelArts的Lite Server环境中,使用NPU卡对CogVideoX模型进行全量微调。本文档中提供的脚本,是基于原生CogVid
精度评测可以在原先conda环境,进入到一个固定目录下,执行如下命令。 rm -rf lm-evaluation-harness/ git clone https://github.com/EleutherAI/lm-evaluation-harness.git cd lm-evaluation-harness
period String 计费时期。 queries_limit Long 查询次数。 price Float 价格。 请求示例 GET https://{endpoint}/v2/{project_id}/workflows 响应示例 状态码:200 OK { "total" :
TfServingBaseService class MnistService(TfServingBaseService): # 预处理中处理用户HTTPS接口输入匹配模型输入 # 对应上述训练部分的模型输入为{"images":<array>} def _preprocess(self
gpu_index 节点上GPU的索引。 gpu_type 节点上GPU的型号。 device_name infiniband或RoCE网络网卡的设备名称。 port IB网卡的端口号。 physical_state IB网卡每个端口的状态。 firmware_version IB网卡的固件版本。
WorkflowDagPolicies 参数 参数类型 描述 use_cache Boolean 是否使用缓存。 请求示例 启动工作流 POST https://{endpoint}/v2/{project_id}/workflows/{workflow_id}/executions { }
精度评测可以在原先conda环境,进入到一个固定目录下,执行如下命令。 rm -rf lm-evaluation-harness/ git clone https://github.com/EleutherAI/lm-evaluation-harness.git cd lm-evaluation-harness
period String 计费时期。 queries_limit Long 查询次数。 price Float 价格。 请求示例 GET https://{endpoint}/v2/{project_id}/workflows/{workflow_id} 响应示例 状态码:200 OK
载后的文件如图2所示,代码所在路径为“./models/official/cv/resnet/”。 # 下载代码 git clone https://gitee.com/mindspore/models.git -b v1.5.0 图2 下载后的模型包文件 下载花卉识别数据集。
"best_of":2, "length_penalty":2 }' 服务的API与vLLM官网相同,此处介绍关键参数。详细参数解释请参见官网https://docs.vllm.ai/en/stable/dev/sampling_params.html。 表1 请求服务参数说明 参数 是否必选
token。 请求示例 停止uuid为3faf5c03-aaa1-4cbe-879d-24b05d997347的训练作业。 POST https://endpoint/v2/{project_id}/training-jobs/cf63aba9-63b1-4219-b717-708a2665100b/actions
价格。 请求示例 创建Workflow工作流。设置工作流名称为“graph-test-has-condition-step”。 POST https://{endpoint}/v2/{project_id}/workflows { "name" : "graph-test-has-condition-step"