检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置LLMs(Python SDK) LLMs模块用于对大语言模型API的适配封装,提供统一的接口快速地调用盘古、GALLERY三方模型等模型API。 初始化:根据相应模型定义LLM类,如使用盘古LLM为: LLMs.of("pangu")。 from pangukitsappdev
约束与限制 受技术等多种因素制约,盘古大模型服务存在一些约束限制。 每个模型请求的最大Token数有所差异,详细请参见模型的基础信息。 模型所支持的训练数据量、数据格式要求请参见《用户指南》“准备盘古大模型训练数据集 > 模型训练所需数据量与数据格式要求”。
Agent效果优化 如果Agent出现无法正确调用工具的情况,可以尝试一些prompt优化技术提升效果。 优化System prompt 提示财务报销助手依赖的必要信息,如用户名称等基础信息: final String customSystemPrompt = "你是财务
//校验,不一致 //用于检查缓存中的数据是否与查询的数据不一致,如果不一致,返回空值 //例如,查询“有没有数据?”这个问题和“test-semantic-cache-vector-001”这个会话标识,就无法从缓存中获取到任何答案,因为这个问题和之前保存的问题都不一致 String
AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。经过认证的请求总是需要包含一个签名值,该签名值以请求者的访问密钥(AK/SK)作为加密因子,结合请求体携带的特定信息计算而成。通过访问密钥(AK/SK)认证方式进行认证鉴权,即使用Access
# 校验,不一致 # 用于检查缓存中的数据是否与查询的数据不一致,如果不一致,返回空值 # 例如,查询“有没有数据?”这个问题和“test-semantic-cache-vector-001”这个会话标识,就无法从缓存中获取到任何答案,因为这个问题和之前保存的问题都不一致 query_not
在第二次运行Agent时,包含第一次运行的所有工具调用细节。 agentSession相当于Agent的会话Memory。一般情况下,需要将agentSession对象在外部持久化,在每一轮会话传入agentSession对象中的sessionId,下面的示例代码用一个map对象模拟外部的持久化:
由于盘古大模型当前部署在“西南-贵阳一”区域,需要获取与“西南-贵阳一”区域对应的project id。 图1 获取user name、domain name、project id 打开Postman,新建一个POST请求,并输入“西南-贵阳一”区域的“获取Token”接口。并填写请求Header参数。
搭建边缘服务器集群 执行如下命令,生成docker证书。注意该命令只需执行一次,如果已有相关证书,请跳过该步骤。 bash cluster_install-ascend.sh generate_docker_cert --pkg-path=/home/hilens/pkgs 基于
应用开发SDK针对大模型应用开发场景,对大语言模型进行封装,提供了语言模型、提示词模板、记忆、技能、智能代理等功能模块,简化用户的开发工作,帮助用户快速开发一个大模型应用。当前应用开发SDK支持如下语言: Python Java 开发环境要求 华为云盘古大模型应用开发SDK要求Python 3.9及以上版本,JAVA
ovider, vector_config) 定义一个ToolRetriever包含2个参数,一个ToolProvider,一个向量数据库配置。其中,ToolProvider的作用为根据工具检索的结果组装工具。 上述例子使用了一个简单的InMemoryToolProvider,I
融领域的新闻”、“以上是一篇xx领域的xxx文档”。 例如,“结合金融领域相关知识,生成一份调研报告大纲,报告主题是区块链洞察”、“以上是某理财app用户反馈的问题,请提供解决方案。” 人设: 增加人设可以让生成的内容更符合该领域需求。 例如,“假设你是一位银行面试官,请生成10
答复:已经成功为您预订了2023年6月22日下午2点到4点的金桥203会议室。 用户: 再定一个明天8点到9点的会议室 助手: 好的,请问您希望预订哪个会议室? - 步骤1 答复:好的,请问您希望预订哪个会议室? 用户: 同一个会议室 助手: 已经成功为您预订了2023年6月23日早上8点到9点的金桥203会议室。
获取Token消耗规则 每个Token代表模型处理和生成文本的基本单位,它可以是一个单词、字符或字符的片段。模型的输入和输出都会被转换成Token,并根据模型的概率分布进行采样或计算。训练服务的费用按实际消耗的Token数量计算,即实际消耗的Token数量乘以Token的单价。为
有两个变化值得关注,一是为ToolRetriever添加了一个queryPreprocessor,它的作用为对用户输入的多轮对话进行改写,会将改写后的结果作为工具检索的输入,这里使用了系统内置的ConversationRewriteSkill,它的作用为将多轮对话改写为单轮。二是在创建一个Ag
数据量和质量均满足要求,Loss也正常收敛,为什么微调后的效果不好 这种情况可能是由于以下几个原因导致的,建议您依次排查: Prompt设置:请检查您使用的Prompt,对于同一个目标任务,建议在推理阶段使用和训练数据相同或相似的PROMPT,才能发挥出模型的最佳效果。 模型规格:理论上模型的参数规模越大,模型能学到
配置盘古访问OBS服务权限,多用户使用平台情况下需要创建子用户。 配置盘古访问授权 创建子用户并授权使用盘古 准备训练数据 创建一个新的数据集 创建一个新的数据集,用来管理上传至平台的训练或者评测数据。 创建一个新的数据集 数据集质量检测/数据清洗 对上传的数据进行质量检测,若质量有问题可以进行数据清洗。 检测数据集质量
如何调整训练参数,使模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。
为什么微调后的模型,回答中会出现乱码 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果中出现了其他语言、异常符号、乱码等字符。这种情况可能是由于以下几个原因导致的,建议您依次排查: 数据质量:请检查训练数据中是否存在包含异常字符的数据,可以通过规则进行清洗。
为什么微调后的模型,回答会异常中断 当您将微调的模型部署以后,输入一个与目标任务同属的问题,模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可以增大