检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ModelLink中。 git clone https://gitee.com/ascend/ModelLink.git cd ModelLink git checkout 8f50777 cd .. git clone https://gitee.com/lmzwhu/Megatron-LM
程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为用户提供推理部署方案,帮助用户使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。 本文档适配昇腾云ModelArts 6.3.906版本,请参考软件配套版本获取配套版本的软件包,请严格遵照版本配套关系使用本文档。
se/”(使用目录作为路径)。 不能直接使用桶作为路径。 输出位置不能与输入位置相同或者是输入位置的子目录。 长度限制:不少于3字符,不能超过700个字符。 字符限制:不允许出现的特殊字符有换行符(\n)、回车符(\r)、制表符(\t)。 表7 Label参数 参数 是否必选 参数类型
服务交互,需要用户配置委托授权,允许ModelArts访问这些依赖服务。如果没有授权,ModelArts的部分功能将不能正常使用。 约束与限制 只有主账号可以使用委托授权,可以为当前账号授权,也可以为当前账号下的所有IAM用户授权。 多个IAM用户或账号,可使用同一个委托。 一个账号下,最多可创建50个委托。
数量。 缩容操作可能影响到正在运行的业务,建议用户在业务空窗期进行缩容,或进入资源池详情页面,在指定空闲的节点上进行删除来实现缩容。 约束限制 只支持对状态为“运行中”的专属资源池进行扩缩容。 专属资源池不能缩容到0。 扩缩容专属资源池 资源池扩缩容有以下类型,分别为: 对已有规格增减目标总实例数
启动后设置的自动停止时间,单位为秒。 store_time Integer 该规格实例处于非活跃状态,在数据库最长保存的时长。单位为小时。 默认为“-1”, 表示可以无限制保存。 billing_flavor String 计费规格。当该字段为空时,使用规格名称计费。 billing_params Integer
DevServer上使用昇腾计算资源Ascend Snt9B开展Flux模型的训练过程,包括基于kohya的Fintune训练和基于ai-toolkit的Lora训练。 约束限制 本方案目前仅适用于企业客户。 本文档适配昇腾云ModelArts 6.3.911版本,请参考表1获取配套版本的软件包和镜像,请严格遵照版本配套关系使用本文档。
其可见该资产。 管理模型可用范围 仅当发布模型时,“可用范围”启用“申请用户可用”时,才支持管理模型的可用范围。管理操作包含如何添加可使用资产的新用户、如何审批用户申请使用资产的请求。 添加可使用资产的新用户。 模型发布成功后,如果模型所有者要新增可使用资产的新用户,则可以在模型详情页添加新用户。
Lite提供的模型convertor工具可以支持主流的模型格式到MindIR的格式转换,用户需要导出对应的模型文件,推荐导出为ONNX格式。 如何导出ONNX模型 PyTorch转ONNX,操作指导请见此处。 PyTorch导出ONNX模型样例如下: import torch import
参见•针对“物体检测”数据集。 相关问题 智能标注失败,如何处理? 当前智能标注为免费使用阶段,当系统的标注任务过多时,因免费资源有限,导致任务失败,请您重新创建智能标注任务或建议您避开高峰期使用。 智能标注时间过长,如何处理? 当前智能标注为免费使用阶段,当系统的标注任务过多时
Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。
specification 是 String 部署本地服务时,取值为“local”。 instance_count 是 Integer 模型部署的实例数,当前限制最大实例数为128,部署本地服务Predictor时,取值为1。 envs 否 Map<String, String> 运行模型需要的环境变量键值对,可选填,默认为空。
Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。
Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。
程。本方案利用适配昇腾平台的大模型推理服务框架vLLM和华为自研昇腾Snt9B硬件,为用户提供推理部署方案,帮助用户使能大模型业务。 约束限制 本方案目前仅适用于部分企业客户。 本文档适配昇腾云ModelArts 6.3.907版本,请参考软件配套版本获取配套版本的软件包,请严格遵照版本配套关系使用本文档。
ModelArts-Console访问地址 华北-北京四 https://console.huaweicloud.com/modelarts/?region=cn-north-4#/dataLabel?tabActive=labelConsole 华北-北京一 https://console.huaweicloud
生态合作介绍 AI Gallery的生态合作模块展示了伙伴赋能培训,该模块旨在与合作伙伴一起构建合作共赢的AI生态体系。 AI Gallery使用限制 目前自动学习产生的模型暂不支持发布到AI Gallery。 订阅或购买主要是获取AI资产的使用配额和使用权,支持在配额定义的约束下,有限地使用AI资产。
务器(如ECS)上制作。具体案例参考在ECS中通过Dockerfile从0制作自定义镜像用于推理。 图3 模型的自定义镜像制作场景三 约束限制 自定义镜像中不能包含恶意代码。 创建模型的自定义镜像大小不超过50GB。 对于同步请求模式的模型,如果预测请求时延超过60s,会造成请求
署模型为在线服务中的“支持APP认证”参数)。对于已部署的在线服务,ModelArts支持修改其配置开启AppCode认证。 本文主要介绍如何修改一个已有的在线服务,使其支持AppCode认证并进行在线预测。 前提条件 提前部署在线服务,具体操作可以参考案例:使用ModelArts
注意:推理应用开发时,需要使用模型的Resize功能,改变输入的shape。而且Resize操作需要在数据从host端复制到device端之前执行,下面是一个简单的示例,展示如何在推理应用时使用动态Shape。 import mindspore_lite as mslite import numpy as np from