检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
好。 BLEU-4 模型生成结果和实际句子的加权平均精确率,数值越高,表明模型性能越好。 困惑度 用来衡量大语言模型预测一个语言样本的能力,数值越低,准确率也就越高,表明模型性能越好。 指标适用的任务场景 任务答案是相对比较确定的,例如固定答案的问答任务、NL2SQL、NL2JSON、文本分类等。
面。 图1 模型压缩 选择需要进行压缩的模型执行模型压缩,压缩策略为“INT8”。当压缩模型为N2基础功能模型,或是经有监督微调训练和RLHF训练后的N2模型,支持选择“低消耗模式”,减少推理资源的消耗。 图2 创建压缩任务 输入任务名称和描述,单击“立即创建”,即可下发压缩模型
AgentAction包含Agent的工具选择、工具执行结果、思考等信息,AgentSessionStatus为一个枚举,包含Agnet的执行状态。建议直接对Agent的run接口的返回进行修改,以控制Agent的行为。如果想控制中间过程,可以对Agent的runStep的返回进行修改。 通过监听终止Agent的执行
搭结构 提示词的结构需要尽可能直观,不要将指令、上下文、说明等内容放在一行输入,适当的换行将提示词的内容结构拆分体现出来。一个结构清晰的提示词输入,能够让模型更好地理解您的意图。 另外,上下文可以用'''xxx'''三引号区隔开,以防止指令冲突。在如下的闭卷问答任务中,文本中部分
批量评估提示词效果前,需要先上传提示词变量数据文件用于创建对应的评估数据集。 提示词变量是一种可以在文本生成中动态替换的占位符,用于根据不同的场景或用户输入生成不同的内容。其中,变量名称可以是任意的文字,用于描述变量的含义或作用。 提示词评估数据集约束限制 上传文件限xlsx格式。
> 模型管理”页面,单击右上角的“模型迁移”。 在“模型迁移”页面,下载用户证书。 图2 下载用户证书 登录环境A的盘古大模型套件平台,在“模型迁移”页面,选择“导出模型”,在导入证书的地方上传环境B下载的证书文件,并选择需要导出的模型和模型导出的obs路径。 图3 导出模型 单击“确定”,导出模型。
获取提示词模板 平台提供了多种任务场景的提示词模板,可以帮助用户更好地利用大模型的能力,引导模型生成更准确且更具针对性的输出,从而提高模型在特定任务上的性能。在创建提示词工程前,可以先使用预置的提示词模板,或基于提示词模板进行改造,如果提示词模板满足不了使用需求,可再单独创建。 提示词模板可以在平台“应用开发
基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 通用文本(文本补全)(/text/completions) Java、Python、Go、.NET、NodeJs 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。
提示词撰写完成后,可以通过输入具体的变量值,组成完整的提示词,查看不同提示词在模型中的使用效果。 在撰写提示词页面,找到页面右侧变量输入区域,在输入框中输入具体的变量值信息。 输入变量值后预览区域会自动组装展示提示词。用户也可以直接选择已创建的变量集填入变量值信息,变量集是一个e
在“创建工具”页面参考表1完成工具代码的设置。 表1 创建工具参数说明 参数 是否必选 参数类型 描述 tool_id 是 String 工具ID,必须由英文小写字母和_组成,需要符合实际工具含义。 tool_desc 是 String 工具的描述,尽可能的准确简短描述工具的用途。 说明: 该描述
排顺序 在提示词中内容的顺序也很重要,基于盘古大模型调优经验,将关键信息放在结尾处,模型输出效果更好。不同任务的关键信息不同,若需要模型生成的内容更具创意性,关键信息需要为内容描述;需要模型严格遵循指令进行回复的,关键信息为指令及说明。 父主题: 常用方法论
大模型概念类问题 大模型是什么 大模型的计量单位token指的是什么 大模型是否可以自定义人设 盘古自然语言大模型的适用场景有哪些 大模型的安全性需要从哪些方面展开评估和防护 训练智能客服系统大模型需要考虑哪些方面
发布数据集 刚创建的数据集在未发布状态下,无法应用于模型训练,数据集创建、清洗完成后需要执行“发布”操作才可以将该数据集用于后续的任务中。 登录盘古大模型套件平台。 在左侧导航栏中选择“数据工程 > 数据管理”,在“我的数据集”页签找到未发布的数据集,单击操作列“版本发布”执行发布数据集操作。
配置知识库 大模型在进行训练时,使用的是通用的数据集,这些数据集没有包含特定行业的数据。通过知识库功能,用户可以将领域知识上传到知识库中,向大模型提问时,大模型将会结合知识库中的内容进行回答,解决特定领域问题回答不准的现象。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发
自定义模型 如果使用的模型不是盘古或者兼容OpenAI-API的开源模型,如,闭源模型或者裸机部署的自定义推理服务,可以通过继承AbstractLLM自定义一个模型,示例代码如下: @Slf4j public class CustomLLM extends AbstractLLM<LLMResp>
09:00的A01已预定成功 - 步骤3 答复:"已为您预定 A01会议室,时间为2024年5月8日早上8点到9点。 " 多轮执行增强 上述的例子中实际运行时只提供给模型多轮的对话,并没有提供工具执行的过程,有概率会出现模型不实际调用工具的情况。为了让大模型的效果更好,可以传入agentSession。
用户: 定个金桥203会议室的会议 助手: 好的,请问会议具体是什么时候开始和结束?请按照"yyyy-MM-dd HH:mm"的格式告诉我。 - 步骤1 答复:好的,请问会议具体是什么时候开始和结束?请按照"yyyy-MM-dd HH:mm"的格式告诉我。 用户: 下午2点到4点
调用边缘模型 调用边缘模型的步骤与使用“在线部署”调用模型的步骤相同,具体步骤请参考使用API调用模型。 父主题: 部署为边缘服务
设置候选提示词 用户可以将效果较好的提示词设为候选提示词,并对提示词进行比对查看效果。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > 提示词工程”,进入提示词工程页面。 在工程任务列表页面,找到所需要操作的工程任务,单击该工程任务操作栏中的“撰写”。 图1 撰写提示词
约束与限制 受技术等多种因素制约,盘古大模型服务存在一些约束限制。 每个模型请求的最大Token数有所差异,详细请参见模型的基础信息。 模型所支持的训练数据量、数据格式要求请参见《用户指南》“准备盘古大模型训练数据集 > 模型训练所需数据量与数据格式要求”。