检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建科学计算大模型部署任务 平台支持部署训练后的模型或预置模型,操作步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击界面右上角“创建部署”。 在“创建部署”页面,参考表1完成部署参数设置。 表1 科学计算大模型部署参数说明
专业大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“专业大模型 > BI专业大模型”或“专业大模型 > 搜索专业大模型”。 部署模型 在“从资产选模型”选择所需模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 安全护栏 选择模式
查看CV大模型部署任务详情 部署任务创建成功后,可以查看大模型部署的任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建CV大模型部署任务后,可以查看模型的部署状态。
部署CV大模型 创建CV大模型部署任务 查看CV大模型部署任务详情 管理CV大模型部署任务 父主题: 开发盘古CV大模型
部署预测大模型 创建预测大模型部署任务 查看预测大模型部署任务详情 管理预测大模型部署任务 父主题: 开发盘古预测大模型
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。 图1
查看专业大模型部署任务详情 部署任务创建成功后,可以查看大模型部署的任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建专业大模型部署任务后,可以查看模型的部署状态。
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型
查看科学计算大模型部署任务详情 部署任务创建成功后,可以查看大模型部署的任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建科学计算大模型部署任务后,可以查看模型的部署状态。
将已有模型部署为模型服务 模型需要部署成功后才可正式提供模型服务。部署成功后,可以对模型服务进行模型调测,并支持在创建Agent时使用或通过模型调用接口调用。 本文介绍如何将微调后的模型或部分平台预置的模型部署为模型服务。 前提条件 已购买推理单元资源,具体购买方法请参见购买AI原生应用引擎包年包月资源。
管理科学计算大模型部署任务 模型更新 完成创建科学计算大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
池的物理池。 “选择模型及配置” “模型来源” 根据您的实际情况选择“自定义模型”或者“订阅模型”。 “选择模型及版本” 选择状态“正常”的模型及版本。 “分流” 设置当前实例节点的流量占比,服务调用请求根据该比例分配到当前版本上。 如您仅部署一个版本的模型,请设置为100%。如
模型管理简介 hilens::Model类 模型管理器,使用模型管理器加载模型并进行推理。 #include <model.h> 析构函数 ~Model() virtual hilens::Model::~Model( ) Model析构时会释放掉hiai::Graph等资源。 父主题:
模型管理 单击菜单栏中的“模型管理”,可在“模型管理”界面查看打包好的模型,如图1所示。 图1 模型管理 父主题: 使用模型训练服务快速训练算法模型
plt.show() 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
开源模型怎么部署? 开源模型的部署需要购买推理单元,具体操作如下: 在AI原生应用引擎的左侧导航栏选择“资产中心”,选择“大模型”页签。 将鼠标光标移至待部署的开源模型卡片上,单击“部署”。 在“创建部署服务”页面,可以查看到需要几个推理单元,单击“购买推理单元资源”。 图1 创建部署服务
部署专业大模型 创建专业大模型部署任务 查看专业大模型部署任务详情 管理专业大模型部署任务 父主题: 开发盘古专业大模型
部署科学计算大模型 创建科学计算大模型部署任务 查看科学计算大模型部署任务详情 管理科学计算大模型部署任务 父主题: 开发盘古科学计算大模型
载训练得到的模型。 在本地环境进行离线部署。 具体请参见模型调试章节在本地导入模型,参见服务调试章节,将模型离线部署在本地并使用。 父主题: 功能咨询
1:8080/${推理服务的请求路径} 推理部署示例 本节将详细说明以自定义引擎方式创建模型的步骤。 创建模型并查看模型详情 登录ModelArts管理控制台,进入“模型管理”页面中,单击“创建模型”,进入模型创建页面,设置相关参数如下: 元模型来源:选择“从对象存储服务(OBS)中选择”。 选择元模型:从OBS中选择一个模型包。