检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
比较候选提示词信息的差异性,可以单击开启“高亮展示差异点”。 图3 高亮差异点 下拉页面至“提示词效果比较”模块,比较提示词的效果,输入相同的变量值,查看两个提示词生成的结果。 图4 比较提示词的效果 父主题: 横向比较提示词效果
模型会更倾向于使用不常见的词汇。 历史对话保留轮数 选择要包含在每个新API请求中的过去消息数。这有助于为新用户查询提供模型上下文。参数设置为10,表示包括5个用户查询和5个系统响应。该参数只涉及多轮对话功能。 体验预置模型文本补全能力 进入“文本补全”页签,选择模型与示例,参数
模型会更倾向于使用不常见的词汇。 历史对话保留轮数 选择要包含在每个新API请求中的过去消息数。这有助于为新用户查询提供模型上下文。参数设置为10,表示包括5个用户查询和5个系统响应。该参数只涉及多轮对话功能。 体验预置模型文本补全能力 进入“文本补全”页签,选择模型与示例,参数
}}标识,单击“确认”按钮,平台会自动识别插入的变量。 图2 撰写提示词 图3 确认提示词内容 识别的变量展示在变量定义区域,可以编辑变量名称便于理解。 图4 查看提示词变量 变量定义区域展示的是整个工程任务下定义的变量信息,候选提示词中关联的变量也会进行展示,候选词相关操作请参见设置候选提示词。 在
模型的基础信息 盘古大模型平台为用户提供了多种规格的模型,涵盖从基模型到功能模型的多种选择,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 NLP大模型清单 模型类别 模型
Explorer可根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。 您可以在API Explorer中具体API页面的“代码示例”页签查看对应编程语言类型的SDK代码。 图1 获取SDK代码示例 当您在中间填充栏填入对应内容时, 右侧代码示例会自动完成参数的组装。 图2 设置输入参数
承载REST服务端点的服务器域名或IP。 resource-path 资源路径,即API访问路径。从具体API的URI模块获取。 query-string 查询参数,可选,查询参数前面需要带一个“?”,形式为“参数名=参数取值”。 参考终端节点章节获取endpoint,并在接口的URI部分找到resour
= "capital", toolDesc = "资产注册查询", toolPrinciple = "请在需要查询各个公司的资产注册情况时调用此工具", inputDesc = "需要查询的公司名称,一次只支持查询一家公司", outPutDesc = "公司的资产注册规模")
部署为在线服务 模型训练完成后,即模型处于“已完成”状态时,可以启动模型的部署操作。 基于盘古大模型打造的专业大模型包括BI专业大模型与单场景大模型支持模型推理,但不支持模型训练。 部署为在线服务 登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型部署”,单击界面右上角“部署”。
版本: 0.1 - 语言: 中文 - 描述: 我是一个旅行规划助理,能够帮助用户查询天气、预订车票,以及查询旅游地的风景人文。 ## 技能 ### 技能-1 1. 通过调用{tool_id}工具,查询目的地的天气信息。 ### 技能-2 1. 能够根据用户需求和偏好,帮助用户规划旅行路线。
"meeting_room_status_query", toolDesc = "查询会议室的状态,是否被预订或者正在使用中", toolPrinciple = "请在需要预订会议室之前使用,查询会议室状态判断是否可以预订", inputDesc = "", outPutDesc
进行初始化、更新、查找和清理操作。缓存还可以支持语义匹配和查询,通过向量和相似度的计算,实现对数据的语义理解和检索。 Vector向量存储:是一种将数据转换为数学表示的方法,它可以度量数据之间的关系和相似度。向量存储可以根据不同的词向量模型进行初始化、更新、查找和清理操作。向量存
进行初始化、更新、查找和清理操作。缓存还可以支持语义匹配和查询,通过向量和相似度的计算,实现对数据的语义理解和检索。 Vector向量存储:是一种将数据转换为数学表示的方法,它可以度量数据之间的关系和相似度。向量存储可以根据不同的词向量模型进行初始化、更新、查找和清理操作。向量存
build()); 查询数据:从缓存中获取数据,需要指定数据的键值对。例如,查找1+1这个问题对应的答案,可参考以下示例。 import com.huaweicloud.pangu.dev.sdk.api.llms.response.LLMResp; // 查找数据 LLMResp
更新数据 cache.update("1+1", LLMResp(answer=2)) 查询数据:从缓存中获取数据,需要指定数据的键值对。例如,查找1+1这个问题对应的答案,参考示例如下: # 查找数据 cache_value = cache.lookup("1+1") 清理数据:删
add_tools(tool_list) 工具添加后,会存储在向量库的索引中,并将指定的字段向量化。 从ToolRetriever中查找工具: # 查找工具 result = css_tool_retriever.search("预订会议室", 2) 返回的result中,包含与预
型的对话问答、规划推理、逻辑判断等能力,来理解和回应用户的需求。 例如,需要构建一个企业助理应用,该应用需要具备预定会议室、创建在线文档和查询报销信息等功能。在构建此应用时,需要将预定会议室与创建在线文档等功能的API接口定义为一系列的工具,并通过AI助手,将这些工具与大模型进行
策略,并让Agent结合记忆模块中相关的信息以获取最优化任务解决策略。 任务执行:能通过工具与外界发生联系并产生影响,工具可以自定义,包括查询信息、调用服务、网络搜索、文件管理、调用云服务等,通过Agent构建一个让LLM按照特定的规则迭代运行的Prompt,直到任务完成或者达到终止条件(如设置迭代次数)。
数据量和质量均满足要求,为什么微调后的效果不好 这种情况可能是由于以下原因导致的,建议您排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了欠拟合或过拟合。请检查训练参数中的 “训练轮次”或“学习
策略,并让Agent结合记忆模块中相关的信息以获取最优化任务解决策略。 任务执行:能通过工具与外界发生联系并产生影响,工具可以自定义,包括查询信息、调用服务、网络搜索、文件管理、调用云服务等,通过Agent构建一个让LLM按照特定的规则迭代运行的Prompt,直到任务完成或者达到终止条件(如设置迭代次数)。