检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。 操作流程 使用盘古NLP大模型创建Python编码应用的流程见表1。
在调用盘古API时,获取的项目id需要与盘古服务部署区域一致,例如盘古大模型当前部署在“西南-贵阳一”区域,需要获取与贵阳一区域的对应的项目id。 图2 获取项目ID 多项目时,展开“所属区域”,从“项目ID”列获取子项目ID。
单击画布中的开始节点以打开节点配置页面。 开始节点的参数默认已配置,不支持修改开始节点的参数。 图1 开始节点配置图 步骤3:配置大模型节点 大模型节点提供了使用大模型能力,可在节点中配置已部署的模型,用户可以通过编写Prompt、设置参数让模型处理相应任务。
查看认证配置。 110001 用户信息获取失败。 查看用户信息是否正确配置。 工作流 112501 工作流认证失败。 查看认证配置。 112502 缺少必要参数。 从打印日志可以看出当前缺失何种参数。 112503 工作流连接数据库失败。 请联系客服解决。
仅在非商用环境部署时,才允许支持内网URL,且需要通过相关的服务的启动配置项关闭内网屏蔽。 请求方法 插件服务的请求方式,POST或GET。 鉴权校验 插件服务的鉴权方式,支持以下三种: 无需鉴权:不使用鉴权时会存在安全风险。
使用该鉴权方式前,请确保有已部署的大模型。 获取APPCode步骤如下: 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 应用接入”,单击界面右上角“创建应用接入”。 在“应用配置”中,选择已部署好的大模型,单击“确定”。
应用 功能介绍 通过调用创建好的应用API,输入问题,将得到应用执行的结果。 URI 获取URI方式请参见请求URI。 POST /v1/{project_id}/agent-run/agents/{agent_id}/conversations/{conversation_id}
调试应用的步骤如下: 在页面右上角单击,参考表2配置大模型参数。 表2 大模型参数配置 参数 说明 模型选择 选择要使用的大模型,不同的模型效果存在差异。 该模型需提前部署,步骤请参见创建NLP大模型部署任务。 模式选择 用于配置大模型的输出多样性。
在重训配置参数时,您可以选择新要素进行训练。请注意,所选的数据集必须包含您想要添加的新要素。此外,您还可以通过训练更改所有的模型参数,以优化模型性能。 微调:微调是将新数据应用于已有模型的过程。它适用于不改变模型结构参数和引入新要素的情况。
盘古大模型使用周期内不支持变更配置。
deployment_id 是 String 模型的部署ID,获取方法请参见获取模型部署ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 用于获取操作API的权限。
同时,平台支持一系列便捷的模型操作,如模型训练、压缩和部署,帮助用户简化模型开发和应用流程。此外,平台还提供了导入和导出功能,支持用户将其他局点的盘古大模型迁移到本地局点,这使得模型资产在不同局点间的共享和管理变得更加灵活高效。
缺省值:默认部署时token长度最大值,请参见《产品介绍》“模型能力与规格 > 盘古NLP大模型能力与规格”章节。 说明: token是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。
图2 文本翻译失效 可能原因:如图3,提问器节点的Prompt指令配置有误,指令中的参数与节点配置的输出参数不对应。 图3 提问器节点配置错误示例 解决方法:按照图4,正确配置提问器节点的指令,配置正确后的试运行效果如图5。
平台支持全流程的模型生命周期管理,确保从数据准备到模型部署的每一个环节都能高效、精确地执行,为实际应用提供强大的智能支持。 模型训练:在模型开发的第一步,ModelArts Studio大模型开发平台为用户提供了丰富的训练工具与灵活的配置选项。
图6 创建用户 配置用户基本信息,单击“下一步”。 配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致IAM用户无法使用盘古服务API、SDK。 图7 配置用户基本信息 将用户添加至创建用户组步骤中创建的用户组,单击“创建用户”,完成IAM用户的创建。
图2 配置指令 按照表1进行变量配置。
Pangu-NLP-N2-128K-3.1.35 128K 4K 2024年12月发布的版本,仅支持128K序列长度推理部署。 Pangu-NLP-N2-256K-3.1.35 256K 4K 2024年12月发布的版本,仅支持256K序列长度推理部署。
压缩NLP大模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 当前仅支持对NLP大模型进行压缩。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。
完成微调后,将对用户模型进行评估并进行最终优化,以确保满足业务需求,然后将其部署和调用,用于实际应用。 预测大模型选择建议 选择合适的预测大模型类型有助于提升训练任务的准确程度。您可以根据模型适用场景,选择合适的模型,从而提高模型的整体效果,详见表1。