云服务器内容精选

  • 步骤2:配置Prompt 创建应用后,需要撰写提示词(Prompt),为Agent设定人设、目标、核心技能、执行步骤。 应用会根据盘古NLP大模型对提示词的理解,来选择使用插件、工作流或知识库,响应用户问题。因此,一个好的提示词可以让模型更好地理解并执行任务,应用效果与提示词息息相关。 配置Prompt Builder步骤如下: 在“Prompt builder”模块,需要在输入框中填写Prompt提示词。 可依据模板填写Prompt,单击“示例”,输入框中将自动填入角色指令模板。 图2 Prompt builder 填写后可通过大模型进行优化,单击“智能优化”,在 “Prompt优化”窗口中单击“确定”。 图3 Prompt优化示例
  • 步骤7:调试应用 创建应用后,平台支持对应用执行过程的进行预览与调试。 调试应用的步骤如下: 在页面右上角单击,参考表2配置大模型参数。 表2 大模型参数配置 参数 说明 模型选择 选择要使用的大模型,不同的模型效果存在差异。 该模型需提前部署,步骤请参见创建NLP大模型部署任务。 模式选择 用于配置大模型的输出多样性。 包含取值: 精确的:模型的输出内容严格遵循指令要求,可能会反复讨论某个主题,或频繁出现相同词汇。 平衡的:平衡模型输出的随机性和准确性。 创意性的:模型输出内容更具多样性和创新性,某些场景下可能会偏离主旨。 自定义:自定义大模型输出的温度和核采样值,生成符合预期的输出。 温度 调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性,取值范围为0到1之间。 调高温度,会使得模型的输出更多样性和创新性。 降低温度,会使输出内容更加遵循指令要求但减少多样性。 在基于事实的问答场景,可以使用较低的回复随机性数值,以获得更真实和简洁的答案;在创造性的任务例如小说创作,可以适当调高回复随机性数值。建议不要与核采样同时调整。 核采样 模型在输出时会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到核采样值。核采样值可以限制模型选择这些高概率的词汇,从而控制输出内容的多样性,取值范围为0.1到1之间。 在“预览调试”的左下角,选择是否开启“代码解释器”。 如果开启,应用将支持生成并运行Python代码来解决用户数据处理和分析、 数据可视化 、数学计算等方面的需求。 如果关闭,应用将不具备生成、运行代码的能力。 在右侧“预览调试”的文本框中输入对话,应用将根据对话生成相应的回答。 应用调试成功后,可执行后续的调用操作调用应用。