检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
TestAgentListener(); agent.addListener(testAgentListener); } 其中,listener会在Agent运行时生效。 监听的对象 监听的对象为一个AgentSession: public class AgentSession { /**
在线体验 图说ECS 成长地图 由浅入深,带您玩转盘古大模型 01 了解 了解盘古大模型的概念、优势、应用场景以及模型能力与规格,您将更全面地掌握其强大功能,助力您在不同领域实现创新,加速业务智能化升级。 产品介绍 什么是盘古大模型 产品优势 应用场景 产品功能 模型能力与规格 基础知识
内容安全:通过预训练和强化学习价值观提示(prompt),构建正向的意识形态。通过内容审核模块过滤违法及违背社会道德的有害信息。 模型安全:通过模型动态混淆技术,使模型在运行过程中保持混淆状态,有效防止结构信息和权重信息在被窃取后暴露。 系统安全:通过网络隔离、身份认证和鉴权、Web安全等技术保护大模型系统安全
或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Agent-L0.C模型,或其衍生模型,使用通用模型或其他模型无法运行。如上例所示,当前的module-version需要配置为“N2_agent_v2”,模型的相关配置需要改为Pangu-NLP-N2-Agent-L0
的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Default模型,或其衍生模型,使用通用模型或其他模型无法运行。当前的moduleVersion需要配置为“N2_agent_v2”,如上例所示,因此模型的url要配置为Pangu-NLP-N2-Default模型的地址。
可以增大模型回答生成的长度,避免生成异常截断。请注意,该参数值存在上限,请结合目标任务的实际需要以及模型支持的长度限制来调整。 模型规格:不同规格的模型支持的长度不同,若目标任务本身需要生成的长度已经超过模型上限,建议您替换可支持更长长度的模型。 数据质量:请检查训练数据中是否存
Prompt设置:请检查您使用的Prompt,对于同一个目标任务,建议在推理阶段使用和训练数据相同或相似的PROMPT,才能发挥出模型的最佳效果。 模型规格:理论上模型的参数规模越大,模型能学到的知识就越多,能学会的知识就更难,若目标任务本身难度较大,建议您替换参数规模更大的模型。 父主题: 典型训练问题和优化策略
chatbot, queue=False) demo.queue() demo.launch() 终端命令行下执行python3 chat.py运行应用,效果如下。 父主题: 盘古应用开发SDK实践
数据量很少,可以微调吗 不同规格的模型对微调的数据量都有相应要求。 如果您准备用于微调的数据量很少,无法满足最小的量级要求,那么不建议您直接使用该数据进行微调,否则可能会存在如下问题: 过拟合:当微调数据量很小时,为了能充分学习这些数据的知识,可能会训练较多的轮次,因而模型会过分
获取Token消耗规则 每个Token代表模型处理和生成文本的基本单位,它可以是一个单词、字符或字符的片段。模型的输入和输出都会被转换成Token,并根据模型的概率分布进行采样或计算。训练服务的费用按实际消耗的Token数量计算,即实际消耗的Token数量乘以Token的单价。为
outputs=output, api_name="summary") demo.launch() 终端命令行下执行python3 doc_summary.py运行应用,效果如下。 父主题: 盘古应用开发SDK实践
模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测试集进行评估。通过查看测试集样本的PPL、BLEU和ROUGE等指标,进行横向(相同训练数据+不同规格的通用模型)或纵向(不同训练数据训练的多个模型版本)对比来判断训练过程是否出现了问题。 人工评测:您可以采用人工评测的方式,参照目标任务构
在盘古大模型中,以N1系列模型为例,盘古1token≈0.75个英文单词,1token≈1.5汉字。不同模型的具体情况详见表1。 表1 token比 模型规格 token比(token/英文单词) token比(token/汉字) N1系列模型 0.75 1.5 N2系列模型(不包含盘古-NLP
系统会保留最近的N个对话传递给模型。 历史关键信息抽取 历史关键信息功能允许您在创建AI助手时,配置一些被认为是重要的参数。当 AI助手在运行过程中遇到这些配置的参数时,它将抽取这些参数的取值与描述,并将这些信息记录到当前对话中。通过历史关键信息可以增强模型的理解和回答能力。 该
要求的信息。 使用规则构建的优点是快速且成本低,缺点是数据多样性较低。 基于大模型的数据泛化:您可以通过调用大模型(比如盘古提供的任意一个规格的基础功能模型)来获取有监督场景。一个比较常见的方法是,将无监督的文本按照章节、段落、字符数进行切片,让模型基于这个片段生成问答对,再将段
>=80% 绿色 可用 >=40% 黄色 预警,需要优化数据 <40% 红色 告警,需要优化数据 (可选)当“我的数据集”的OBS数据发生变更时,可以单击右上角“检测”按钮重新校验数据集,也可以在“我的数据集”页签中,单击操作栏中的“更多 > 检测”,重新校验数据集。历史存量未校验过的数据集也可以进行重新校验。
换为token长度的转换比如下。以N1为例,盘古模型1token≈0.75个英文单词,1token≈1.5汉字。 表3 token比 模型规格 token比(token/英文单词) token比(token/汉字) N1系列模型 0.75 1.5 N2系列模型 0.88 1.24
性,比如:同义词替换、语法结构修改、标点符号替换等,保证数据的多样性。 基于大模型的数据泛化:您可以通过调用大模型(比如盘古提供的任意一个规格的基础功能模型)来获取目标场景的数据,以此提升数据质量。一个比较常见的方法是,将微调数据以及数据评估标准输入给模型,让模型来评估数据的优劣。
获得操作API的权限。 Token的有效期为24小时,需要使用一个Token鉴权时,可以先缓存起来,避免频繁调用。 如果您的华为云账号已升级为华为账号,将不支持获取账号Token。建议为您自己创建一个IAM用户,获取IAM用户的Token。 获取Token方法: Token可通
理的最大长度。 最小值:1 最大值:不同模型支持的token长度,请参见《产品介绍》“模型规格 > 模型基础信息”章节。 缺省值:默认部署时token长度最大值,请参见《产品介绍》“模型规格 > 模型基础信息”章节。 说明: token是指模型处理和生成文本的基本单位。token