检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
前是第三轮对话,数据中的问题字段需要包含第一轮的问题、第一轮的回答、第二轮的问题、第二轮的回答以及第三轮的问题,答案字段则为第三轮的回答。以下给出了几条多轮问答的数据样例供您参考: 原始对话示例: A:你是谁? B:您好,我是盘古大模型。 A:你可以做什么? B:我可以做很多事情,比如xxxx
创建一个新的数据集 数据集是指用于训练模型或评估的一组相关数据样本。存储在OBS中的数据可以通过数据集的形式放置在到盘古平台中,便于管理。 在创建数据集之前,请先将数据上传至OBS平台。 上传数据至OBS 登录盘古大模型套件平台。 在左侧导航栏中选择“数据工程 > 数据管理”,单击界面右上角“创建数据集”。
训练参数设置:若数据质量存在问题,且因训练参数设置的不合理而导致过拟合,该现象会更加明显。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,适当降低这些参数的值,降低过拟合的风险。 推理参数设置:请检查推理参数中的“温度”或“核采样”等参数的设置,适当减小其中一个参数的值,可以提升模型回答的确定性,避免生成异常内容。
为什么微调后的模型,回答会异常中断 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可以增大
盘古自然语言大模型的适用场景有哪些 自然语言处理大模型是一种参数量极大的预训练模型,是众多自然语言处理下游任务的基础模型。学术界和工业界的实践证明,随着模型参数规模的增加,自然语言处理下游任务的效果显著提升,这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模
数据量满足要求,为什么微调后的效果不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 典型训练问题和优化策略
大模型的安全性需要从哪些方面展开评估和防护 盘古大模型的安全性主要从以下方面考虑: 数据安全和隐私保护:大模型涉及大量训练数据,这些数据是重要资产。为确保数据安全,需在数据和模型训练的全生命周期内,包括数据提取、加工、传输、训练、推理和删除的各个环节,提供防篡改、数据隐私保护、加
为什么微调后的模型,评估结果很好,但实际场景表现却很差 当您在微调过程中,发现模型评估的结果很好,一旦将微调的模型部署以后,输入一个与目标任务同属的问题,回答的结果却不理想。这种情况可能是由于以下几个原因导致的,建议您依次排查: 测试集质量:请检查测试集的目标任务和分布与实际场景
少于xx个字的文本。”,将回答设置为符合要求的段落。 续写:根据段落的首句、首段续写成完整的段落。 若您的无监督文档没有任何结构化信息,可以将有监督的问题设置为“以下是一篇文章的第一个句子:xxx/第一段落:xxx。请根据以上的句子/段落,续写为一段不少于xx个字的文本。”,再将回答设置为符合要求的段落。
么微调后的效果不好 这种情况可能是由于以下几个原因导致的,建议您依次排查: Prompt设置:请检查您使用的Prompt,对于同一个目标任务,建议在推理阶段使用和训练数据相同或相似的PROMPT,才能发挥出模型的最佳效果。 模型规格:理论上模型的参数规模越大,模型能学到的知识就越
任务信息填写完成后,单击“下一步”,搭建数据清洗流程。 可以使用预置的清洗模板完成对数据集的清洗,也可以基于算子搭建清洗流程。 图2 搭建数据清洗流程 将算子拖拽至“输入”、“输出”之间,即可完成清洗流程的搭建,搭建过程中可以通过“执行节点”功能查看算子对数据的清洗效果。算子功能的详细介绍请参见清洗算子功能介绍。 图3
为什么微调后的模型,回答总是在重复某一句或某几句话 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成了复读机式的结果,即回答中反复出现某一句话或某几句话。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“话题重复度控制”或“
评估盘古大模型 创建模型评估数据集 创建模型评估任务 查看评估任务详情
批量评估提示词效果 创建提示词评估数据集 创建提示词评估任务 查看提示词评估结果 父主题: 提示词工程
训练盘古大模型 选择模型与训练方法 创建训练任务 查看训练任务详情与训练指标 常见训练报错与解决方案
在“服务管理”页面,单击所需API的“查看详情”按钮。 图1 服务管理 在“模型列表”中选择需要调用的模型,单击操作栏中的“调用路径”,复制对应模型的API请求地址。 图2 获取API请求地址 获取Token。 在调用盘古API过程中,Token起到了身份验证和权限管理的作用。 在调用盘古AP
勾选所需的提示词,并单击“保存到模板库”。 图2 保存提示词到模板库 进入“应用开发 > 提示词管理 > 我的提示词”页面,查看发布的提示词。 图3 我的提示词 父主题: 提示词工程
er.getAnswer()); //校验,相似 //用于检查缓存中的数据是否与查询的数据语义相似,如果相似,就返回缓存中的结果对象。这个操作需要使用向量和相似度的计算,以及设置的阈值来判断 //例如,查询“缓存存在?”这个问题和“test-semantic-cache-vec
示工程提高语言模型的安全性,也可以通过专业领域知识和外部工具赋能语言模型,增强其能力。 Prompt基本要素 您可以通过简单的提示词获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的指令或问题等信息,也可以包含其他种类的信息,如上下文、输入
09:00的A01已预定成功 - 步骤3 答复:"已为您预定 A01会议室,时间为2024年5月8日早上8点到9点。 " 多轮执行增强 上述的例子中实际运行时只提供给模型多轮的对话,并没有提供工具执行的过程,有概率会出现模型不实际调用工具的情况。为了让大模型的效果更好,可以传入agentSession。