检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
已存在部署完成的服务。 已完成模型调整,创建模型。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。 在部署完成的目标服务中,单击操作列的“修改”,进入“修改服务”页面。 在选择模型及配置中,单击“增加模型版本进行灰度发布”添加新版本。
否则该模型无法正常使用AI Gallery工具链服务(微调大师和在线推理服务)。 当托管的是自定义镜像时,上传的模型文件要满足自定义镜像规范,否则该镜像无法正常使用AI Gallery工具链服务(微调大师和在线推理服务)。 当文件状态变成“上传成功”表示数据文件成功上传至AI
将AI Gallery中的模型部署为AI应用 AI Gallery支持将模型部署为AI应用,在线共享给其他用户使用。 前提条件 选择的模型必须是支持部署为AI应用的模型,否则模型详情页没有“部署 > AI应用”选项。 部署AI应用 登录AI Gallery。 单击“模型”进入模型列表。
为什么项目删除完了,仍然还在计费? 如果ModelArts的自动学习项目、Notebook实例、训练作业或在线服务,都已经处于停止状态,即总览页面没看到收费项目,仍然发现账号还在计费。 有以下几种可能情况: 因为您在使用ModelArts过程中,将数据上传至OBS进行存储,OBS
业务场景 依赖的服务 委托授权项 说明 配置建议 在线服务 LTS lts:groups:create lts:groups:list lts:topics:create lts:topics:delete lts:topics:list 在线服务配置LTS日志上报。 按需配置。 批量服务
介绍如何在Notebook中配置NPU环境,部署并启动推理服务,完成精度测试和性能测试。 若需要部署量化模型,需在Notebook中进行模型权重转换后再部署推理服务。 在推理生产环境中部署推理服务 介绍如何在创建AI应用,部署并启动推理服务,在线预测在线服务。 父主题: 主流开源大模型基于Standard适配PyTorch
单击新建的模型名称左侧的小三角形,展开模型的版本列表。在操作列单击“部署 > 在线服务”,跳转至在线服务的部署页面。 在部署页面,参考如下说明填写关键参数。 “名称”:按照界面提示规则自定义一个在线服务的名称,也可以使用默认值。 “资源池”:选择“公共资源池”。 “模型来源”和
"application/json" } } ] 将模型部署为在线服务 参考部署为在线服务将模型部署为在线服务。 在线服务创建成功后,您可以在服务详情页查看服务详情。 您可以通过“预测”页签访问在线服务。 图5 访问在线服务 父主题: Standard推理部署
存需求增多。 处理方法 在部署或升级在线服务时,选择更大内存规格的计算节点。 图3 选择计算节点规格 运行中服务出现告警时,需要分析是您的代码是否出现漏洞导致内存溢出、是否因为业务使用量太大需要更多的内存。如果因业务原因需要更多内存,请升级在线服务选择更大内存规格的计算节点。 父主题:
Gallery在线推理服务部署模型。 如果使用自定义镜像进行训练,操作步骤可以参考使用AI Gallery微调大师训练模型,其中“训练任务类型”默认选择“自定义”,且不支持修改。 如果使用自定义镜像进行部署推理服务,操作步骤可以参考使用AI Gallery在线推理服务部署模型,
训练benchmark工具 工具介绍及准备工作 训练性能测试 训练精度测试 父主题: 主流开源大模型基于Lite Server适配LlamaFactory PyTorch NPU训练指导(6.3.910)
训练benchmark工具 工具介绍及准备工作 训练性能测试 训练精度测试 父主题: 主流开源大模型基于Lite Server适配LlamaFactory PyTorch NPU训练指导(6.3.912)
训练benchmark工具 工具介绍及准备工作 训练性能测试 训练精度测试 父主题: 主流开源大模型基于Lite Server适配LlamaFactory PyTorch NPU训练指导(6.3.911)
主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.906) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理
"application/json" } } ] 将模型部署为在线服务 参考部署为在线服务将模型部署为在线服务。 在线服务创建成功后,您可以在服务详情页查看服务详情。 您可以通过“预测”页签访问在线服务。 父主题: 制作自定义镜像用于推理
其他任务类型的模型,其他任务类型的模型被称为自定义模型。但是托管的自定义模型要满足规范才支持使用AI Gallery工具链服务(微调大师、在线推理服务)。 自定义模型的使用流程 托管模型到AI Gallery。 模型基础设置里的“任务类型”选择除“文本问答”和“文本生成”之外的类型。
NPU推理指导(6.3.906) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 父主题: LLM大语言模型训练推理
NPU推理指导(6.3.905) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.907) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.909) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理