检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Standard创建模型。 当用户使用自定义引擎时,默认开启动态加载,模型包与镜像分离,在服务部署时动态将模型加载到服务负载。 配置健康检查 大模型场景下导入的模型,要求配置健康检查,避免在部署时服务显示已启动但实际不可用。 图3 采用自定义引擎,开启动态加载并配置健康检查示例图 部署在线服务
导入模型后部署服务,提示磁盘不足 问题现象 用户在导入模型后,部署服务时,提示磁盘空间不足:“No space left on device”。 原因分析 ModelArts部署使用的是容器化部署,容器运行时有空间大小限制,当用户的模型文件或者其他自定义文件,系统文件超过Docker
模型发布 模型发布失败 父主题: 自动学习
模型训练 自动学习训练作业失败 父主题: 自动学习
success”,表示该解决方案已经部署完成。 图9 部署完成 参考制作镜像,获取镜像地址。 访问华为云解决方案实践,选择“基于PyTorch NPU快速部署开源大模型”,单击“一键部署(部署模型)”,跳转至解决方案创建资源栈界面,其余部署参考以上步骤2-8,(注:步骤3参考表2 参数说明(部署模型)完成自定义参数填写)。
表的状态显示为“就绪”时表示模型可以使用。 步骤三:使用订阅模型部署在线服务 模型订阅成功后,可将此模型部署为在线服务 在展开的版本列表中,单击“部署 > 在线服务”跳转至部署页面。 图2 部署模型 在部署页面,参考如下说明填写关键参数。 “名称”:自定义一个在线服务的名称,也可
Studio大模型即服务平台。 在ModelArts Studio左侧导航栏中,选择“模型部署”进入服务列表。 在“模型部署”页面,单击“我的服务”页签,在右上角单击“部署模型服务”进入部署页面,完成创建配置。 表1 部署模型服务 参数 说明 服务设置 服务名称 自定义部署模型服务的名称。
自动学习生成的模型,存储在哪里?支持哪些其他操作? 模型统一管理 针对自动学习项目,当模型训练完成后,其生成的模型,将自动进入“模型管理”页面,如下图所示。模型名称由系统自动命名,前缀与自动学习项目的名称一致,方便辨识。 自动学习生成的模型,不支持下载使用。 图1 自动学习生成的模型
将模型部署为批量推理服务 模型准备完成后,您可以将模型部署为批量服务。在“模型部署>批量服务”界面,列举了用户所创建的批量服务。 前提条件 数据已完成准备:已在ModelArts中创建状态“正常”可用的模型。 准备好需要批量处理的数据,并上传至OBS目录。 已在OBS创建至少1个空的文件夹,用于存储输出的内容。
创建联邦学习工程 创建工程 编辑代码(简易编辑器) 编辑代码(WebIDE) 模型训练 父主题: 模型训练
通过OBS创建模型时,构建日志中提示pip下载包失败 通过自定义镜像创建模型失败 导入模型后部署服务,提示磁盘不足 创建模型成功后,部署服务报错,如何排查代码问题 自定义镜像导入配置运行时依赖无效 通过API接口查询模型详情,model_name返回值出现乱码 导入模型提示模型或镜像大小超过限制
训练预测分析模型 创建自动学习后,将会进行模型的训练,得到预测分析的模型。模型部署步骤将使用预测模型发布在线预测服务。 操作步骤 在新版自动学习页面,单击创建成功的项目名称,查看当前工作流的执行情况。 在“预测分析”节点中,待节点状态由“运行中”变为“运行成功”,即完成了模型的自动训练。
实时推理的部署及使用流程 在创建完模型后,可以将模型部署为一个在线服务。当在线服务的状态处于“运行中”,则表示在线服务已部署成功,部署成功的在线服务,将为用户提供一个可调用的API,此API为标准Restful API。访问在线服务时,您可以根据您的业务需求,分别确认使用何种认证
部署预测分析服务 模型部署 模型部署操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待训练状态变为“等待输入”,双击“服务部署”节点,完成相关参数配置。
支持使用WebIDE开发环境编辑代码。可选择下述一种方式,进入WebIDE开发环境编辑代码: 在“模型训练”菜单页面,“开发环境”为WebIDE环境的情况下,单击联邦学习工程所在行的。。 在“模型训练”菜单页面,单击联邦学习工程所在行,进入详情界面。“开发环境”为WebIDE环境的情况下,单击详情界面
提供“自动学习白盒化”能力,开放模型参数、自动生成模型,实现模板化开发,提高开发效率 采用自动深度学习技术,通过迁移学习(只通过少量数据生成高质量的模型),多维度下的模型架构自动设计(神经网络搜索和自适应模型调优),和更快、更准的训练参数自动调优自动训练 采用自动机器学习技术,基于
MindIE和vLLM在深度思考返回接口差异 对于DeepSeek-R1这类模型,其返回信息包含深度思考的内容。 当前MindIE接口深度思考内容和问题回答都在content字段中,类似“xxx</think>xxx“,通常</think>前面的即为深度思考内容,后面的为问题回答
快速部署 操作场景 本章节帮助用户高效地部署“快速搭建EvalScope模型性能评测平台”解决方案。一键部署该解决方案时,参照本章节中的步骤和说明进行操作,即可完成快速部署。 操作步骤 登录华为云解决方案实践,选择“快速搭建EvalScope模型性能评测平台”,单击“一键部署”,跳转至解决方案创建资源栈界面。
在“订阅应用”列表,单击“版本数量”,在右侧展开版本列表,当订阅模型的版本列表的状态显示为“就绪”时表示模型可以使用。 步骤3:使用订阅模型部署在线服务 模型订阅成功后,可将此模型部署为在线服务 在展开的版本列表中,单击“部署 > 在线服务”跳转至部署页面。 在部署页面,参考如下说明填写关键参数。 “名称
导入模型提示模型或镜像大小超过限制 问题现象 在导入模型时,提示模型或镜像大小超过限制。 原因分析 如果使用的是OBS导入或者训练导入,则是基础镜像、模型文件、代码、数据文件和下载安装软件包的大小总和超过了限制。 如果使用的是自定义镜像导入,则是解压后镜像和镜像下载文件的大小总和超过了限制。