检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据量和质量均满足要求,为什么盘古大模型微调效果不好 这种情况可能是由于以下原因导致的,建议您排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了欠拟合或过拟合。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,根据实际情况调整训练参数,帮助模型更好学习。
为什么微调后的盘古大模型评估结果很好,但实际场景表现很差 当您在微调过程中,发现模型评估的结果很好,一旦将微调的模型部署以后,输入一个与目标任务同属的问题,回答的结果却不理想。这种情况可能是由于以下几个原因导致的,建议您依次排查: 测试集质量:请检查测试集的目标任务和分布与实际场景是否一致,
若您的无监督文档中含标题、关键词、简介等结构化信息,可以将有监督的问题设置为“请根据标题xxx/关键性xxx/简介xxx,生成一段不少于xx个字的文本。”,将回答设置为符合要求的段落。 续写:根据段落的首句、首段续写成完整的段落。 若您的无监督文档没有任何结构化信息,可以将有监督的问题设置为“以下是一篇文章的第一个
功能介绍 为了帮助用户更好地管理和优化Token消耗,平台提供了Token计算器工具。Token计算器可以帮助用户在模型推理前评估文本的Token数量,提供费用预估,并优化数据预处理策略。 URI POST /v1/{project_id}/deployments/{deployment_id}/caltokens
多轮问答传参方法:在完成第一轮问答,进行第二轮问答时,需要将第一轮的问题和答案、第二轮问题作为参数传入……依次类推,完成多轮对话。 { "messages": [ { "content": "介绍下长江,以及长江中典型的鱼类" //第一轮问题 }, {
描述变量的含义或作用。 提示词评估数据集约束限制 上传文件限xlsx格式。 数据行数不小于10行,不大于50行。 数据不允许相同表头,表头数量小于20个。 数据单条文本长度不超过1000。 创建数据集时会对相关限制条件进行校验。 数据参考格式如下: 图1 数据参考格式 图2 数据示例
部署推理服务后,可以采用人工评测的方案来评估模型效果。以下列出该场景中可能遇到的常见问题,评测过程中如出现这些问题,可参考相应的解决方案: 问题一:问答场景问题,针对文档库中的内容可以回答的问题,模型的最终回答不符合预期。 解决方案:首先进行问题定位,确定是未检索到相关文档,还是检索到相关内容但模型理解错
据集最大10TB。 问答排序 jsonl、csv jsonl格式:context表示问题,targets的回答1、回答2、回答3表示答案的优劣顺序,最好的答案排在最前面。targets内容的数量至少为2个,且最多为6个,具体格式示例如下: { "context":"context内容"
NLP大模型训练常见报错与解决方案 NLP大模型训练常见报错及解决方案请详见表1。 表1 NLP大模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提
移交给其他人员,可以单击操作列“移交”设置移交人员以及移交的数量。 图5 标注作业 图6 移交标注任务 进入标注页面后,逐一对数据进行标注。 以标注单轮问答数据为例,需要逐一确认问题(Q)及答案(A)是否正确,如果问题或答案不正确,可以对其进行二次编辑,如图7。 图7 文本类数据集标注示例
高级设置 plog日志。plog日志是一种用来记录模型运行情况的信息。开启plog日志,能帮助开发者了解模型执行的状态、捕捉错误、分析问题。不同的日志级别表示日志的重要性和详细程度,从低到高依次是:DEBUG、INFO、WARNING、ERROR。 训练参数 数据批量大小 数
图16 评估任务列表 在评估页面,可参考评估项对当前数据的问题进行标注,且不满足时需要单击“不通过”,满足则单击“通过”。 对于文本类数据集而言,可选择问题内容后,单击鼠标右键进行数据问题的标注。 图17 标记数据集问题 全部数据评估完成后,评估状态显示为“100%”,表示当前数
应用提示词实现智能客服系统的意图匹配 应用场景说明:智能客服系统中,大模型将客户问题匹配至语义相同的FAQ问题标题,并返回标题内容,系统根据匹配标题调出该FAQ问答对,来解答客户疑问。 父主题: 提示词应用示例
言模型的能力。 提示词基本要素 您可以通过简单的提示词(Prompt)获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的指令或问题等信息,也可以包含其他种类的信息,如上下文、输入或示例等。您可以通过这些元素来更好地指导模型,并因此获得更好的结果。提示词主要包含以下要素:
“自定义格式”可以通过自定义格式转换脚本,将数据集转化为适用于其他模型的格式。例如盘古数据集中,context、target字段分别表示问题和答案。对于Alpaca格式的数据集,instruction对应问题,input对应上下文或者背景信息,output对应答案,用户可以上传自定义的python脚本实现数据集
“自定义格式”可以通过自定义格式转换脚本,将数据集转化为适用于其他模型的格式。例如盘古数据集中,context、target字段分别表示问题和答案。对于Alpaca格式的数据集,instruction对应问题,input对应上下文或者背景信息,output对应答案,用户可以上传自定义的python脚本实现数据集
如下提供了本场景可能存在的常见问题,若在评测过程中出现如下问题,可以参考解决: 问题一:JSON字段缺失、JSON字段或值错误。 解决方案:对于这几种情况,需要在微调数据中增大该缺失字段的数据比例,同时也可以在Prompt中加入对该字段的强调。 问题二:JSON格式错误、JSON内容发散。
档中抽取出问题的答案,不能是主观的理解或解释,不能修改原文的任何符号、字词和格式”, 如果使用“请阅读上述文档,并生成以下问题答案”,“生成”一词不是很恰当,模型会引入一些外部知识。 例如,在构造泛化问题的任务中,需要基于原问题改写为相同含义的问题,而不是生成相似的问题。当提示词
应用提示词生成面试题目 应用场景说明:将面试者的简历信息输入给大模型,基于简历生成面试问题,用于辅助人工面试或实现自动化面试。 父主题: 提示词应用示例
影响模型效果。 问题额外配置: 参数名称:与输出参数的参数名称一一对应,用户不可修改,自动跟随输出参数的变化而改动。 问题关键词:问题关键词是对输出参数描述信息的提炼,帮助大模型更好地理解问题关键词。此处为选填,不填写可能影响模型提取效果。当“问题配置”的“问题”信息与“高级配置