检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
录页 文档拆分设置:自动分段、长度分段(按文本长度分段)、层级分段(按小标题分段,可自定义小标题解析规则) 搜索模型设置:rerank模型配置 NLP模型设置:生成模型选择 其他设置:召回数量、精排开关、参考文档数量、意图分类、Query改写开关 URI PUT /v1/koos
embedding_model 否 String embedding模型名称 最小长度:1 最大长度:32 rerank_model 否 String rerank模型名称 最小长度:1 最大长度:32 pangu_nlp_model 否 String nlp大模型名称 最小长度:1 最大长度:32 file_extract
embedding_model String embedding模型名称 最小长度:1 最大长度:64 rerank_model String rerank模型名称 最小长度:1 最大长度:64 nlp_model String nlp模型名称 最小长度:1 最大长度:64 file_extract
embedding_model String embedding模型名称 最小长度:1 最大长度:64 rerank_model String rerank模型名称 最小长度:1 最大长度:64 nlp_model String nlp模型名称 最小长度:1 最大长度:64 file_extract
scope 否 String 搜索范围,定义搜索索引中的信息子集,默认文档库 doc:文档知识,使用query2doc模型 faq:FAQ,常见问答集,使用query2query模型 web:网络来源,来自于web搜索引擎 缺省值:doc 最小长度:1 最大长度:16 枚举值: doc faq
说明: 如果选择NLP模型-昇腾云类型的模型服务进行问答,建议设置模型生成最大新词数不超过512。 非搜索增强模型生成多样性(temperature) 控制非搜索增强模型文本的随机性,值越高,文本随机性越、多样性和创造性越高。默认值为0.8。 搜索增强模型生成多样性(temperature)
仅“西南-贵阳一”区域支持开通和使用KooSearch服务。 版本规格 - 智能搜索版:提供开箱即用的知识库,主要用于RAG,为大语言模型(LLM)提供外部知识来源,扩大知识检索范围。 智能问答版:提供内置大语言模型(LLM),一站式快速搭建企业级RAG服务。 本案例选择“智能问答版”。 实例名称 - 实例名称为Flexus企业搜索服务的名称。
在任务管理中查看。生成的文件可以下载、删除。 进入KooSearch控制台。 左侧导航栏选择“知识库管理”,进入“知识库管理”页面。 单击“任务管理”页签,勾选需要操作操的任务。可进行下载、删除操作。 图5 任务管理 下载的文答文档可以在“FAQ批量导入”页签中上传使用。 关闭知识库
实例的所在区域。 版本规格 智能搜索版 提供开箱即用的知识库,主要用于RAG,为大语言模型(LLM)提供外部知识来源,扩大知识检索范围。 应用场景:RAG服务的必备企业知识库、知识搜索。 智能问答版 提供内置大语言模型(LLM),一站式快速搭建企业级RAG服务。 应用场景:企业智能助手,数字员工。
"b4254b30-f241-476c-b003-63df8f1cc221", "question" : "无法登录我的账户怎么办?", "answer" : "请确保您使用的是正确的用户名和密码。如果仍然无法登录,请尝试重置密码或联系客服。", "status" : 0, "create_time"
objects 当前答案的参考文件和分片详情 数组长度:0 - 65535 表5 QuestionReferenceModel 参数 参数类型 描述 id Integer 参考分片ID 最小值:0 最大值:2147483647 reference_id String 参考文件ID 最小长度:1