检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Flexus企业搜索服务使用流程 华为云企业搜索KooSearch是基于华为云的云搜索服务搭建的一站式智能搜索解决方案,帮助企业聚焦业务场景和应用开发,场景服务化、技术简单化、低门槛化,满足开发者基于业务场景的二次开发。在RAG(Retrieval-Augmented Generat
最小长度:1 最大长度:65535 repo_id String 知识库标识 最小长度:1 最大长度:64 请求示例 /v1/123456/applications/123456/uni-search/experience/searchtext { "repo_id" : "1234abdc"
\ / 4.完整替换,不支持部分更新。 最小长度:1 最大长度:255 数组长度:0 - 250 请求示例 /v1/12345678/applications/12345678/uni-search/12345678aaa/faq??page_num=1&page_size=1
配置OCR增强实现文档智能解析 应用场景 Flexus企业搜索服务(后续简称为KooSearch),Koosearch结合OCR服务文档识别能力,通过NET网关打通网络,使Koosearch支持智能文档解析能力,对PDF/Word等格式的文档内容进行版式分析,智能识别文档中的各种
API概览 Koosearch提供的接口为符合RESTful API设计规范的自研接口。通过Koosearch的自研接口,您可以使用Koosearch的表1 接口说明所示的功能。 表1 接口说明 类型 说明 知识库管理接口 知识库管理等相关接口。 结构化数据接口 将结构化数据文件纳入系统进行管理接口。
提供开箱即用的知识库,主要用于RAG,为大语言模型(LLM)提供外部知识来源,扩大知识检索范围。 应用场景:RAG服务的必备企业知识库、知识搜索。 智能问答版 提供内置大语言模型(LLM),一站式快速搭建企业级RAG服务。 应用场景:企业智能助手,数字员工。 实例名称 - 实例名称为Flexus Koo
Flexus企业搜索服务日志管理 为了方便用户使用日志定位问题,KooSearch服务提供了日志查询功能。用户可以通过日志查询进行问题分析定位。 日志查询 进入KooSearch服务详情页面。 登录云搜索服务管理控制台。 在左侧导航栏选择“KooSearch>Flexus企业搜索
输入模型服务名称,不能为空。 模型类型 NLP模型-云底座:通过华为云提供的盘古nlp大模型访问方式。 NLP模型-昇腾云:通过昇腾云的MAAS服务提供的nlp大模型访问方式。如果选择此模型进行问答,建议设置模型生成最大新词数不超过512。 NLP模型-裸机:通过裸机部署提供的盘古nlp大模型访问方式。
.pcx, .ico, .psd, .dps, .et, .txt, .ofd 的多个文档,单个文档不能超过128MB(超过60MB建议通过API上传)。当前版本中图片上传、文档内单张图片上传最大不超过10MB。 创建FAQ 支持创建问答形式的知识。 批量导入FAQ 支持批量导
API,将API发布到不同环境后,支持在环境中调用API使用KooSearch服务。 日志管理:为了方便用户使用日志定位问题,KooSearch服务提供了日志查询功能。用户可以通过日志查询进行问题分析定位。 查看KooSearch服务信息 进入KooSearch服务详情页面。 登录云搜索服务管理控制台。 在左侧导航栏
搜索规划模型服务:搜索规划模型服务提供了意图分类、多轮查询改写、复杂查询分解、时间抽取等功能,在搜索增强生成任务中,通过意图分类的结果将路由到后续不同的流程;通过改写查询词及查询分解以提高搜索的准确率。 NLP模型设置 选择NLP模型服务。基于盘古大模型的人工智能语言模型,可进行对话互动、回答问题、协助创作。
使用方式:支持自定义prompt,如果未配置自定义prompt,则使用默认prompt。在自定义构建时,请参考默认prompt的格式。 模型配置 文本多样性(top_p) 通过限制词汇的选择来控制生成文本的多样性。值越高,候选单词越多,文本多样性越高。默认值为0.1。 模型生成最大新词数(max_tokens)
度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2 最大值:128 top_p 否 Float 通过限制词汇的选择来控制生成文本的多样性。值越高,候选单词越多,文本多样性越高。 最小值:0.1 最大值:1 缺省值:0.1 max_tokens
度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2 最大值:128 top_p 否 Float 通过限制词汇的选择来控制生成文本的多样性。值越高,候选单词越多,文本多样性越高。 最小值:0.1 最大值:1 缺省值:0.1 max_tokens
效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2 最大值:128 top_p Float 通过限制词汇的选择来控制生成文本的多样性。值越高,候选单词越多,文本多样性越高。 最小值:0.1 最大值:1 缺省值:0.1 max_tokens
效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2 最大值:128 top_p Float 通过限制词汇的选择来控制生成文本的多样性。值越高,候选单词越多,文本多样性越高。 最小值:0.1 最大值:1 缺省值:0.1 max_tokens