检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
插入的变量。提示词中识别的变量将展示在变量定义区域。 变量名称可以进行修改,如添加备注信息以便更好理解变量的作用。 图3 变量定义 变量定义区域展示的是整个工程任务下定义的变量信息,候选提示词中关联的变量也会进行展示,候选提示词相关操作请参见设置候选提示词。 同一个提示词工程中,定义的变量不能超过20个。
在“提示词”模块,可依据模板填写Prompt,单击“”,输入框中将自动填入角色指令模板。 示例如图2,您可以依据模板进行填写。 图2 配置Prompt 填写后可通过大模型进行优化,单击“智能优化”,在 “Prompt优化”窗口中单击“确定”。 步骤3:添加预置插件 应用支持添加插件技能
数据批量大小是指对数据集进行分批读取训练时,所设定的每个批次数据大小。批量大小越大,训练速度越快,但是也会占用更多的内存资源,并且可能导致收敛困难或者过拟合;批量大小越小,内存消耗越小,但是收敛速度会变慢,同时模型更容易受到数据噪声的影响,从而导致模型收敛困难。 您可根据数据和模型的规模进行调整。
时间的天气进行预测。 全球中期降水预测:通过该模型可以对未来一段时间的降水情况进行预测。 模型服务 支持选择用于启动推理作业的模型。 中期天气要素模型包括1h分辨率、3h分辨率、6h分辨率、24小时分辨率模型,即以起报时刻开始,分别可以逐1h、3h、6h、24h往后进行天气要素的预测。
在“添加知识库”窗口,单击“”进行添加,再单击“确定”。 图6 添加知识库 添加知识库后,可在“知识库”中查看当前已添加的知识库。 图7 已添加知识库 可单击“”对知识库进行高级配置,包括相关度阈值与topk召回数量。 相关度阈值:超过相关度阈值的搜索结果会提交给大模型进行总结,否则被过滤,
角“继续上传”,上传本地文件。 知识库命中测试 平台支持对创建的知识库进行命中测试,以评估知识库的效果和准确性。 命中测试通过将用户的查询与知识库中的内容进行匹配,最终输出与查询相关的信息,并根据匹配的程度进行排序。 知识库命中测试步骤如下: 登录ModelArts Studio
来分解复杂推理或数学任务,在问题的结尾可以加上“分步骤解决问题”或者“让我们一步一步地思考”,以引导大模型进行逐步的推理和解答。 通过上述指令,将一个推理任务拆解分步骤进行,可以降低推理任务的难度并可以增强答案可解释性。另外,相比直接输出答案,分步解决也容许大模型有更多的“思考时间”,用更多的计算资源解决该问题。
例数。选择缩实例升级时,系统会先删除旧版本,再进行升级,期间旧版本不可使用。 图2 升级模式 升级配置后,需重新启动该部署任务,升级模式即为重启的方式。 模型部署实例扩缩容 完成创建科学计算大模型部署任务后,可以对已部署模型的实例进行扩缩容,具体步骤如下: 登录ModelArts
例数。选择缩实例升级时,系统会先删除旧版本,再进行升级,期间旧版本不可使用。 图2 升级模式 升级配置后,需重新启动该部署任务,升级模式即为重启的方式。 模型部署实例扩缩容 完成创建NLP大模型部署任务后,可以对已部署模型的实例进行扩缩容,具体步骤如下: 登录ModelArts
实例数。选择缩实例升级时,系统会先删除旧版本,再进行升级,期间旧版本不可使用。 图2 升级模式 升级配置后,需重新启动该部署任务,升级模式即为重启的方式。 模型部署实例扩缩容 完成创建专业大模型部署任务后,可以对已部署模型的实例进行扩缩容,具体步骤如下: 登录ModelArts
各模块人员进行不同层级的权限配置,确保每个用户在其指定的工作空间内,拥有合适的访问与操作权限。这种精细化的权限管理方式,既保证了数据的安全性,又提高了资源的高效利用。 在平台中,空间资产指的是存储在工作空间中的所有资源,包括数据资产和模型资产。这些资产是用户在平台上进行开发和管理
在编排工作流时,可以使用以下节点进行功能设计: 开始节点:开始节点是工作流的起始节点,用户输入的信息由开始节点传入。 结束节点:结束节点是工作流的最终节点,用于定义整个工作流的输出信息。 大模型节点:用于在工作流中引入大模型能力。 意图识别节点:用于根据用户的输入进行意图分类并导向后续不同的处理流程。
则会加剧该现象。此外,若可预见实际场景会不断发生变化,建议您定期更新训练数据,对模型进行微调更新。 多轮问答场景,为什么微调后的效果不好? 当您的目标任务是多轮问答,并且使用了多轮问答数据进行微调,微调后却发现多轮回答的效果不理想。这种情况可能是由于以下几个原因导致的,建议您依次排查:
大模型使用类 盘古大模型是否可以自定义人设 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的单个文件进行上传 如何查看预置模型的历史版本 训练/推理单元与算力的对应关系是什么
利用预训练文本生成问答对。 图1 预训练文本类数据集合成指令参数配置示例 指令编排完成后,单击右上角“启用调测”,可以对当前编排的指令效果进行预览。 指令调测完成后,单击“创建并启动”,平台将启动合成任务。 当数据合成任务运行成功后,状态将从“运行中”变为“运行成功”,表示数据已经完成合成操作。
选择“全量微调”。 全量微调:在模型进行有监督微调时,对大模型的所有参数进行更新。这种方法通常能够实现最佳的模型性能,但需要消耗大量计算资源和时间,计算开销较大。 基础模型 选择全量微调所用的基础模型, 可从“已发布模型”或“未发布模型”中进行选择。 高级设置 checkpoin
都包括输入和期望的输出。 LoRA 局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使假设
温度主要用于控制模型输出的随机性和创造性。温度越高,输出的随机性和创造性越高;温度越低,输出结果越可以被预测,确定性相对也就越高。 您可根据真实的任务类型进行调整。一般来说,如果目标任务的需要生成更具创造性的内容,可以使用较高的温度,反之如果目标任务的需要生成更为确定的内容,可以使用较低的温度。
解决的逻辑。 引导模型分析:如果没有直接的示例或现有示例不适用,可以引导模型首先进行“详细分析”,然后再给出答案。这意味着在提示词中明确要求模型逐步分析问题的各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个推理步骤后得出更准确的结论,而不是直接跳到最终答案,减少了过度简化或跳跃推理的可能性。
在“调用详情 > 调用链”中查看插件输出的错误信息。 解决方法:若为Token错误问题,可参考创建多语言文本翻译插件,重新获取Token并进行试运行。 父主题: 低代码构建多语言文本翻译工作流