检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
负责调用华为云文本翻译API,实现从源语言到目标语言的翻译过程。插件将翻译结果返回,传递给结束节点。 大模型节点:如果用户的意图属于“其他”意图分支(如普通对话),则文本将被引导到大模型节点。大模型节点基于预训练的盘古NLP大模型生成响应,从而实现自然语言理解和生成。完成后,结果传递给结束节点。
创建盘古多语言文本翻译工作流流程 操作步骤 说明 步骤1:创建并配置多语言文本翻译工作流 本样例场景实现多语言文本翻译工作流的创建与配置。 步骤2:试运行多语言文本翻译工作流 本样例场景实现多语言文本翻译工作流的试运行。 步骤1:创建并配置多语言文本翻译工作流 登录ModelArts
盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP大模型还具备模型调用等高级特性,可在智能客服、创意营销等多个典型场景中,提供强大的AI技术支持。
用户更好地了解大语言模型的能力和局限性。 提示词工程不仅是关于设计和研发提示词,它包含了与大语言模型交互和研发的各种技能和技术。提示工程在实现和大语言模型交互、对接,以及理解大语言模型能力方面都起着重要作用。用户可以通过提示词工程来提高大语言模型的安全性,还可以赋能大语言模型,如
创建多语言文本翻译插件流程 操作步骤 说明 步骤1:获取文本翻译服务Token与调用地址 本样例场景实现文本翻译服务Token与调用地址的获取。 步骤2:创建并配置多语言文本翻译插件 本样例场景实现多语言文本翻译插件的创建与配置。 步骤1:获取文本翻译服务Token与调用地址 在创建多语言
应用提示词生成面试题目 应用场景说明:将面试者的简历信息输入给大模型,基于简历生成面试问题,用于辅助人工面试或实现自动化面试。 父主题: 提示词应用示例
数据管理:平台支持数据全链路血缘追溯,用户单击数据集名称可以在“数据血缘”页签,查看该数据集所经历的操作。全链路血缘追溯可以帮助用户正向实现数据集影响分析,逆向实现快速问题追踪,提升数据运维和数据治理的效率,帮助用户更好地对数据进行追根溯源。另外平台还提供了完善的标签体系、支持数据按行业标
会根据提示词感知适用的插件,并自动调用它们,从外部服务中获取结果并返回。这样的设计使得Agent能够智能处理复杂任务,甚至跨领域解决问题,实现对复杂问题的自动化处理。 Agent开发平台支持两种类型的插件: 预置插件:平台为开发者和用户提供了预置插件,直接可用,无需额外开发。例如
模型调用:在模型部署后,用户可以通过模型调用功能快速访问模型的服务。平台提供了高效的API接口,确保用户能够方便地将模型嵌入到自己的应用中,实现智能对话、文本生成等功能。 父主题: 产品功能
景的流程型Agent,如金融分析助手、网络检测助手等。 知识型Agent:以大模型为任务执行核心,用户通过配置Prompt、知识库等信息,实现工具自主规划与调用,优点是可零码开发,对话过程更为智能,缺点是当大模型受到输入限制,难以执行链路较长且复杂的流程。 流程型Agent:以工
指令选择完成后,单击“确定”,并配置指令参数,包括“变量取值”、“保存至任务输出参数”、“模型选择”。 如图1,展示了预训练文本类数据集的合成指令参数配置示例,该合成任务实现利用预训练文本生成问答对。 图1 预训练文本类数据集合成指令参数配置示例 其中,各参数介绍如下: 变量取值:输入参数的各个变量取值。取值可
答案,展示在前端界面。 在该框架中,query改写模块、中控模块和问答模块由大模型具体实现,因此涉及到大模型的训练、优化、部署与调用等流程。pipeline编排流程可以基于python代码实现,也可以人工模拟每一步的执行情况。检索模块可以使用Elastic Search来搭建,也
LoRA微调:适用于数据量较小、侧重通用任务的情境。LoRA(Low-Rank Adaptation)微调方法通过调整模型的少量参数,以低资源实现较优结果,适合聚焦于领域通用任务或小样本数据情境。例如,在针对通用客服问答的场景中,样本量少且任务场景广泛,选择LoRA微调既能节省资源,又能获得较好的效果。
与其他服务的关系 与对象存储服务的关系 盘古大模型使用对象存储服务(Object Storage Service,简称OBS)存储数据和模型,实现安全、高可靠和低成本的存储需求。 与ModelArts服务的关系 盘古大模型使用ModelArts服务进行算法训练部署,帮助用户快速创建和部署模型。
l格式 对于文本类数据集,除文档、网页数据类型,其余类型的数据支持将自定义格式转换为jsonl格式。 用户可以上传自定义的python脚本实现数据集由自定义格式到jsonl格式的转换,页面中会提供脚本示例,可下载作为参考。 自定义格式转换的具体步骤为: 登录ModelArts S
选择“NLP大模型”。 训练类型 选择“微调”。 训练目标 选择“全量微调”。 全量微调:在模型进行有监督微调时,对大模型的所有参数进行更新。这种方法通常能够实现最佳的模型性能,但需要消耗大量计算资源和时间,计算开销较大。 基础模型 选择全量微调所用的基础模型, 可从“已发布模型”或“未发布模型”中进行选择。
单击右上角“订阅数据”,在“从AI Gallery订阅”页面选择需订阅的数据资产,单击“下一步”。 填写资产名称与资产描述后,单击“确定”实现数据资产的订阅。 数据资产列表页将显示订阅数据资产的状态: 如果状态为“订阅中”,表示该资产正从AI Gallery同步中,请耐心等待。
插件”中查看当前已添加的插件。 图5 已添加插件 步骤4:添加工作流 应用支持添加工作流技能。工作流支持通过画布编排的方式,使用插件、大模型等不同节点的组合,从而实现复杂、稳定的业务流程编排。 如果需要添加工作流,请确保已完成编排工作流操作。 添加工作流的步骤如下: 在“技能 > 工作流”模块,单击“添加”。
鉴权的方式,需要提供密钥鉴权参数名和密钥值,安全性较低。 请求头 插件服务的请求头。添加请求的数据格式等说明,敏感信息请通过权限校验的方式实现。 自定义插件使用HTTP服务,或不增加鉴权方式可能存在安全风险。 单击“下一步”,在“参数信息”页面,参照表2完成参数配置。 表2 插件参数配置说明
盘古推理SDK简介 推理SDK概述 盘古大模型推理SDK是对REST API进行的封装,通过该SDK可以处理用户的输入,生成模型的回复,从而实现自然流畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(/chat/completions)