检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Too Many Requests”时,表示请求超过流控,请稍后重新调用。 (可选)当免费Token额度用完后,还要继续使用该模型,建议部署为“我的服务”使用。 在预置服务列表,选择所需的服务,单击操作列的“更多 > 部署为我的服务”,跳转到“创建模型”页面。 在创建模型页面,完
Step4 部署并启动推理服务 在Step3中的terminal部署并启动推理服务。有2种方式,使用vllm-api启动推理服务,或者使用openai-api启动推理服务。参考命令如下: # 使用vllm-api python vllm/entrypoints/api_server.py
Float 已使用CPU核数。 cpu_core_total Float 总CPU核数。 cpu_memory_usage Integer 已使用内存,单位MB。 cpu_memory_total Integer 总内存,单位MB。 gpu_usage Float 已使用GPU个数。
<模型版本> --local-dir <模型下载路径> 方法三:使用专用多线程下载器 hfd:hfd 是本站开发的 huggingface 专用下载工具,基于成熟工具 git+aria2,可以做到稳定下载不断线。 方法四:使用Git clone,官方提供了 git clone repo_url
默认:系统随机分配一个不冲突的网段供用户使用,因后续不支持修改建议商用场景选择手动分配,确保网段符合用户诉求。 自定义:需要自定义K8S容器网段和K8S服务网段。 K8S容器网段:集群下容器使用的网段,决定了集群下容器的数量上限。创建后不可修改。 K8S服务网段:同一集群下容器互相访问时使用的Servic
单击“添加文件”,进入上传文件页面,选择本地的数据文件单击“点击上传”或拖动文件,单击“确认上传”启动上传。 上传单个超过5GB的文件时,请使用Gallery CLI工具。CLI工具的获取和使用请参见Gallery CLI配置工具指南。 文件合集大小不超过50GB。 文件上传完成前,请不要刷新或关闭上传页面,防止意外终止上传任务,导致数据缺失。
Float 已使用gpu显存,单位MB。 npu_total Float 总NPU个数。 npu_usage Float 已使用NPU个数。 npu_memory_total Float npu总显存,单位MB。 npu_memory_usage Float 已使用npu显存,单位MB。
alo_name String 别名。 id Integer 原因ID。 reason String 原因描述。 suggestion String 处理建议。 表7 LabelAttribute 参数 参数类型 描述 default_value String 标签属性默认值。 id String
<baseline>:<可选>GP-Ant8机器精度基线Yaml文件路径,不填则使用工具自带基线配置,默认基线配置样例如下: 客户使用工具自带精度基线Yaml则需使用accuracy_cfgs.yaml文件中默认配置,权重使用表1 模型权重中指定的Huggingface地址,数据指定data.tgz里面提供的gsm8k数据。
nd 8卡。 购买并开通资源 如果使用DevServer资源,请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169
nd 8卡。 购买并开通资源 如果使用DevServer资源,请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169
nd 8卡。 购买并开通资源 如果使用DevServer资源,请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169
previous_version_id String 父版本ID。 processor_task_id String 旋转裁剪等预处理任务ID。 processor_task_status Integer 旋转裁剪等预处理任务状态。当前可选值如下: 0:初始化 1:运行中 2:完成 3:失败 4:停止 5:超时 6:删除失败
end驱动的能力。 监控Lite Cluster资源:ModelArts支持使用AOM和Prometheus对资源进行监控,方便您了解当前的资源使用情况。 释放Lite Cluster资源:针对不再使用的Lite Cluster资源,您可以释放资源。 图1 Lite Cluster资源管理介绍
参数类型 描述 grants 否 Array of grants objects 训练作业使用的数据集。不可与data_url或dataset_id/dataset_version_id同时使用。 auth_type 否 String 授权类型。可选值有PUBLIC、PRIVATE
CPU使用量。 memory String 内存使用量。 nvidia.com/gpu String GPU资源使用量。 huawei.com/ascend-snt3 String 昇腾资源使用量。 huawei.com/ascend-snt9 String 昇腾资源使用量。 状态码:
. <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606 记住使用Dockerfile创建的新镜像名称, 后续使用 ${dockerfile_image_name} 进行表示。 Step2 在ECS中Docker登录 在SWR中
alo_name String 别名。 id Integer 原因ID。 reason String 原因描述。 suggestion String 处理建议。 表7 LabelAttribute 参数 参数类型 描述 default_value String 标签属性默认值。 id String
. <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606 记住使用Dockerfile创建的新镜像名称, 后续使用 ${dockerfile_image_name} 进行表示。 Step2 在ECS中Docker登录 在SWR中
. <镜像名称>:<版本名称>:定义镜像名称。示例:pytorch_2_1_ascend:20240606 记住使用Dockerfile创建的新镜像名称, 后续使用 ${dockerfile_image_name} 进行表示。 Step2 在ECS中Docker登录 在SWR中