检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参数对应。 plugin_configs 否 List<PluginConfig> 插件配置,当工作流有配置用户自定义插件节点时,可能需要配置鉴权信息等,具体结构定义详见表4。 表4 PluginConfig参数 参数 是否必选 参数类型 描述 plugin_id 是 String
“训练轮次”或“学习率”等参数的设置,根据实际情况调整训练参数,帮助模型更好学习。 Prompt设置:请检查您使用的Prompt,对于同一个目标任务,建议在推理阶段使用和训练数据相同或相似的PROMPT,才能发挥出模型的最佳效果。 模型规格:理论上模型的参数规模越大,模型能学到
为什么微调后的盘古大模型总是重复相同的回答? 盘古大模型是否可以自定义人设? 更多 大模型概念类 如何对盘古大模型的安全性展开评估和防护? 训练智能客服系统大模型需考虑哪些方面? 更多 大模型使用类 盘古大模型是否可以自定义人设? 如何将本地的数据上传至平台? 导入数据过程中,为什么无法选中OBS的具体文件进行上传?
问答场景中,也称为检索增强问答,如政务问答场景,行业客服智能问答场景等。 下面将以一个具体的政务问答助手为例进行说明。该场景通过收集政务问答数据和相关政务问答文档,基于检索增强问答框架,构建了一个智能化的政务问答助手。 图1 政务问答智能助手整体框架 上图给出了政务问答智能助手的
杂推理或数学任务,在问题的结尾可以加上“分步骤解决问题”或者“让我们一步一步地思考”,以引导大模型进行逐步的推理和解答。 通过上述指令,将一个推理任务拆解分步骤进行,可以降低推理任务的难度并可以增强答案可解释性。另外,相比直接输出答案,分步解决也容许大模型有更多的“思考时间”,用更多的计算资源解决该问题。
nt开发平台。 进入“工作台 > 插件”页面。 导出插件。 单击页面右上角“导出”。 在“导出插件”页面选择工作流,单击“导出”。插件将以一个jsonl格式的文件下载至本地。 导入插件。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。
ent开发平台。 进入“工作台 > 应用”页面。 导出应用。 单击页面右上角“导出”。 在“导出应用”页面选择应用,单击“导出”。应用将以一个jsonl格式的文件下载至本地。 导入应用。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。
达到较好的效果。 业务逻辑的复杂性 判断任务场景的业务逻辑是否符合通用逻辑。如果场景中的业务逻辑较为简单、通用且易于理解,那么调整提示词是一个可行的方案。 例如,对于一般的常规问题解答等场景,可以通过在提示词中引导模型学习如何简洁明了地作答。 如果场景涉及较为复杂、专业的业务逻辑
平台。 进入“工作台 > 工作流”页面。 导出工作流。 单击页面右上角“导出”。 在“导出工作流”页面选择工作流,单击“导出”。工作流将以一个jsonl格式的文件下载至本地。 导入工作流。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。
点进行分类。 Pangu-Predict-Table-Reg-2.0.0 2024年12月发布的版本,支持根据已知的输入变量(特征)来预测一个连续型输出变量(目标变量)。 Pangu-Predict-Table-Anom-2.0.0 2024年12月发布的版本,支持识别数据集中不符合预期模式或行为的数据点。
到最终答案,减少了过度简化或跳跃推理的可能性。 分步推理与反馈:通过分步推理,模型能够在每个步骤后检查和修正自己的思考过程。 例如,在给定一个复杂的逻辑推理问题时,可以要求模型每完成一小步推理,就提供中间结论和推理过程。这样,模型不仅能增加解题的准确性,还能增强理解和自我校正的能力。
在左侧导航栏中选择“能力调测”,单击“文本对话”页签。 选择需要调用的服务。可从“预置服务”或“我的服务”中选择。 填写系统人设。如“你是一个AI助手”,若不填写,将使用系统默认人设。 在页面右侧配置参数,具体参数说明见表1。 表1 NLP大模型能力调测参数说明 参数 说明 搜索增强
关闭:关闭后不保存checkpoints,无法基于checkpoints执行续训操作。 自动:自动保存训练过程中的所有checkpoints。 自定义:根据设置保存指定数量的checkpoints。 训练参数 训练轮数 表示完成全部训练数据集训练的次数。每个轮次都会遍历整个数据集一次。 数据批量大小
通过专用的清洗算子对数据进行预处理,确保数据符合模型训练的标准和业务需求。不同类型的数据集使用专门设计的算子,例如去除噪声、冗余信息等,提升数据质量。 数据合成 利用预置或自定义的数据指令对原始数据进行处理,并根据设定的轮数生成新数据。该过程能够在一定程度上扩展数据集,增强训练模型的多样性和泛化能力。 数据标注 为
发布图片、视频类数据集 评估图片、视频类数据集 平台预置了多种数据类型的基础评估标准,包括NLP、视频和图片数据,用户可根据需求选择预置标准或自定义评估标准,从而精确优化数据质量,确保数据满足高标准,提升模型性能。 评估图片类数据集、评估视频类数据集 配比图片类数据集 数据配比是将多个
量和内容上符合模型训练的标准。 数据评估 平台预置了多种数据类型的基础评估标准,包括NLP、视频和图片数据,用户可根据需求选择预置标准或自定义评估标准,从而精确优化数据质量,确保数据满足高标准,提升模型性能。 数据配比 数据配比是将多个数据集按特定比例组合并发布为“发布数据集”的
单击Postman界面“Send”,发送请求。科学计算大模型API调用成功后,会返回任务id参数task_id,可获取任务ID参数值。 在Postman中新建一个GET请求,填入域名(将获取调用路径中获取的URL去除末尾的“/tasks”即为该域名),设置请求Header参数和任务ID参数。单击Po
配到多个工作节点上进行并行处理,每个工作节点负责处理一部分数据或执行特定的计算任务。日志也可以按照不同的工作节点(如worker-0表示第一个工作节点)进行筛选查看。 图1 获取训练日志 父主题: 训练预测大模型
在特定任务上具有更高的准确性:微调后的模型在具体任务中表现更优。相较于预训练阶段的通用能力,微调能使模型更好地解决细分任务的需求。 在一个客户服务问答系统中,可以用特定领域(如电商、保险)的对话数据对预训练模型进行微调,使其更好地理解和回答与该领域相关的问题。 此外,针对微调训练任务,平台提供了两种微调方式:
创建应用后,需要撰写提示词(Prompt),为应用设定人设、能力、核心技能、执行步骤。 应用会根据盘古NLP大模型对提示词的理解,来响应用户问题。因此,一个好的提示词可以让模型更好地理解并执行任务,应用效果与提示词息息相关。 配置Prompt Builder步骤如下: 在“Prompt bui