检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
设置知识库搜索问答prompt 功能介绍 设置知识库搜索问答prompt,该prompt包括参考文档占位符{0}和搜索query占位符{1}。可以根据不同的使用场景,配置不同的prompt,例如增加人设、限定条件、答案格式要求等,帮助模型生成更优的结果。 URI POST /v1
欢迎使用Flexus企业搜索服务。Flexus企业搜索服务基于业界效果突出的搜索模型、云搜索服务的高性能GaussDB向量数据库以及LLM模型组成行业RAG解决方案,导入非结构化或者结构化业务数据,帮助企业客户快速一站式搭建企业智能问答应用。搜索增强大模型,数据来源于搜索,解决大模型幻觉
12。 NLP模型-裸机:通过裸机部署提供的盘古nlp大模型访问方式。 搜索Embedding模型:搜索向量化模型,支持将文本转化成向量。 搜索精排模型:对搜索的召回结果进行重排序,提升向量检索的效果。 搜索规划模型:提供多轮改写及意图识别功能。 缓存生成模型:提供query之间相似度的计算,用于知识库的缓存功能。
None 服务介绍 云搜索服务 CSS 基本功能介绍 14:01 快速使用云搜索服务 特性讲解 Flexus企业搜索服务 KooSearch文档问答 05:22 了解什么是KooSearch文档问答 云搜索服务 CSS Elasticsearch增强能力 07:15 了解CSS的Elasticsearch增强能力
设置知识库通用无搜索的prompt 功能介绍 设置通用问答prompt。该prompt包含问题占位符{0},和对回答的要求。 URI POST /v1/koosearch/repos/{repo_id}/common-prompt 表1 路径参数 参数 是否必选 参数类型 描述 repo_id
支持上传结构化知识。支持UTF-8编码的JSON文件格式,单个文件最大2M。 进入KooSearch控制台 登录云搜索服务管理控制台。 在左侧导航栏选择“KooSearch>Flexus企业搜索服务”,进入Flexus企业搜索服务页面。 选择文档问答服务,单击操作列的“问答”,前往KooSearch控制台。 上传文档
层级分段(按小标题分段,可自定义小标题解析规则 搜索模型设置:rerank模型配置。 NLP模型设置。 其他设置:召回数量、参考文档数量、精排开关、Query改写开关、意图分类。 设置知识库搜索问答prompt 设置知识库搜索问答prompt,该prompt包括参考文档占位符{0}和搜索query占位符{1
对话历史 查询对话历史列表 获取对话历史 删除对话历史 批量删除对话历史
获取方式: 账号登录KooSearch体验平台,在左侧导航栏选择:"知识库管理" ,在此界面获取"知识库ID"字段的值,表示该知识库在向量数据库中存储的ID,具有唯一性 最小长度:1 最大长度:64 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
获取方式: 账号登录KooSearch体验平台,在左侧导航栏选择:"知识库管理" ,在此界面获取"知识库ID"字段的值,表示该知识库在向量数据库中存储的ID,具有唯一性 最小长度:1 最大长度:64 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
知识库管理 创建知识库 修改知识库配置 设置知识库搜索问答prompt 设置知识库通用无搜索的prompt 开启知识库 关闭知识库 获取知识库列表 查看知识库列表 删除知识库
获取方式: 账号登录KooSearch体验平台,在左侧导航栏选择:"知识库管理" ,在此界面获取"知识库ID"字段的值,表示该知识库在向量数据库中存储的ID,具有唯一性 最小长度:1 最大长度:64 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
公共参数 状态码 错误码
文件管理 上传文档接口 查询文档接口 下载文件接口 删除文档接口
模型管理 新增模型 修改模型配置 列举模型 删除模型
FAQ管理 创建FAQ 更新FAQ 获取FAQ 查询FAQ列表 删除FAQ 批量删除FAQ
获取方式: 账号登录KooSearch体验平台,在左侧导航栏选择:"知识库管理" ,在此界面获取"知识库ID"字段的值,表示该知识库在向量数据库中存储的ID,具有唯一性 最小长度:1 最大长度:64 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
结构化数据 上传结构化数据 搜索结构化数据文件
FAQ批量管理 批量FAQ上传 列举批量上传FAQ文件 下载上传失败的FAQ 下载批量导入FAQ原文件 删除批量导入FAQ文件
盘古裸机模型 embedding 向量模型 query2query query2query模型 rerank 精排模型 search_plan 搜索规划模型 llm 原生模型 最小长度:1 最大长度:64 枚举值: pangu_chat pangu_llm embedding query2query