检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在Agent开发平台上,用户可以构建两种类型的应用: 知识型Agent:以大模型为任务执行核心,适用于文本生成和文本检索任务,如搜索问答助手、代码生成助手等。用户通过配置Prompt、知识库等信息,使得大模型能够自主规划和调用工具。 优点:零代码开发,对话过程智能化。 缺点:大模型在面对复杂的、长链条的流程
开发盘古预测大模型 使用数据工程构建预测大模型数据集 训练预测大模型 部署预测大模型
准备工作 申请试用盘古大模型服务 订购盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间
其中,“训练参数”展示了各场景涉及到的全部参数,请根据具体前端页面展示的参数进行设置。 表1 CV大模型微调参数说明 参数分类 训练参数 说明 训练配置 模型来源 选择“盘古大模型”。 模型类型 选择“CV大模型”。 训练类型 选择“微调”。 基础模型 选择所需微调的基础模型。 训练参数 数据集
针对“零码”开发者(无代码开发经验),平台提供了Prompt智能生成、插件自定义等能力,方便用户快速构建、调优、运行属于自己的大模型应用,仅需几步简单的配置即可创建属于自己的Agent应用。 对于“低码”开发者(有一定代码开发经验),可以通过工作流方式,适当编写一定代码,来构建逻辑复杂、且有较
开发盘古NLP大模型 使用数据工程构建NLP大模型数据集 训练NLP大模型 压缩NLP大模型 部署NLP大模型 评测NLP大模型 调用NLP大模型
应。 使用该鉴权方式前,请确保有已部署的大模型。 获取APPCode步骤如下: 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 应用接入”,单击界面右上角“创建应用接入”。 在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP
在“创建评测任务”页面,参考表1完成部署参数设置。 表1 NLP大模型自动评测任务参数说明 参数分类 参数名称 参数说明 选择服务 模型来源 选择“NLP大模型”。 服务来源 支持已部署服务、外部服务两种选项。单次最多可评测10个模型。 已部署服务:选择部署至ModelArts Studio平台的模型进行评测。
上角“创建插件”。 在“创建插件”页面,填写插件名称与插件描述,单击图片可上传插件图标,单击“下一步”。 在“配置信息”页面,参照表1完成信息配置。 表1 插件信息配置说明 参数名称 参数说明 插件URL 插件服务的请求URL地址。 URL协议只支持HTTP和HTTPS。 系统会校验URL地址是否为标准的URL格式。
左侧导航窗格中,选择“用户”页签,单击右上方的“创建用户”。 图6 创建用户 配置用户基本信息,单击“下一步”。 配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致IAM用户无法使用盘古服务API、SDK。 图7 配置用户基本信息 将用户添加至创建用户组步骤中创建的用户组,单击“创建用户”,完成IAM用户的创建。
调试应用的步骤如下: 在页面右上角单击,参考表2配置大模型参数。 表2 大模型参数配置 参数 说明 模型选择 选择要使用的大模型,不同的模型效果存在差异。 该模型需提前部署,步骤请参见创建NLP大模型部署任务。 模式选择 用于配置大模型的输出多样性。 包含取值: 精确的:模型的输
用户提出的问题,作为运行工作流的输入,与工作流开始节点输入参数对应。 plugin_configs 否 List<PluginConfig> 插件配置,当工作流有配置用户自定义插件节点时,可能需要配置鉴权信息等,具体结构定义详见表4。 表4 PluginConfig参数 参数 是否必选 参数类型 描述 plugin_id
性。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平
单元默认采用包周期计费,数据智算单元、数据通算单元默认采用按需计费,训练单元采用包周期和按需计费两种方式。 盘古大模型使用周期内不支持变更配置。
2024年11月发布的版本,用于海洋基础要素预测,可支持1个实例部署推理。 Pangu-AI4S-Ocean_Regional_24h-20241130 2024年11月发布的版本,用于区域海洋基础要素预测,1个训练单元起训及1个实例部署。 Pangu-AI4S-Ocean_Ecology_24h-20241130
数据、训练模型,依赖专家经验进行算法参数调优,最后才能上线应用。基于ModelArts Studio平台开发工作流,将数据标注、模型训练、部署上线等繁杂的流程固化为一个流水线的步骤。通过大模型的能力,即使只有少量样本,也可以达到良好的模型泛化性和鲁棒性,解决碎片化AI需求的问题。
述,单击“确定”,进入配置合成指令页面。 选择变量标识符为“双大括号{{}}”,输入指令为“请以{{topic}}为主题,写一篇字数不超过{{num}}的散文。” 单击“确定”,再单击“确定”。 图2 配置指令 按照表1进行变量配置。 表1 数据指令变量配置 变量类型 变量名称 变量类型
微调之后,才可支持推理部署。 Pangu-NLP-N2-Chat-32K-20241030 32K 4K 2024年10月发布版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调32个训练单元起训,LoRA微调8个训练单元起训,4个推理单元即可部署。此模型版本差异化支持预训练特性、INT8量化特性。
压缩NLP大模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 当前仅支持对NLP大模型进行压缩。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型压缩”,单击界面右上角“创建压缩任务”。
2024年10月发布的版本,支持在线推理、能力调测特性,支持1个实例部署推理。 Pangu-AI4S-Weather-Precip_6h-3.0.0 用于降水预测 2024年12月发布的版本,相较于10月发布的版本模型运行速度有提升,支持1个实例部署推理。 Pangu-AI4S-Weather_1h-20241030