检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
pangu_chat 盘古对话模型 pangu_llm 盘古裸机模型 embedding 向量模型 query2query query2query模型 rerank 精排模型 search_plan 搜索规划模型 llm 原生模型 最小长度:1 最大长度:64 枚举值: pangu_chat pangu_llm
删除模型 功能介绍 删除模型 URI DELETE /v1/koosearch/models/{model_name} 表1 路径参数 参数 是否必选 参数类型 描述 model_name 是 String 模型名称 最小长度:1 最大长度:64 请求参数 表2 请求Header参数
NLP模型-云底座:通过华为云提供的盘古nlp大模型访问方式。 NLP模型-昇腾云:通过昇腾云的MAAS服务提供的nlp大模型访问方式。如果选择此模型进行问答,建议设置模型生成最大新词数不超过512。 NLP模型-裸机:通过裸机部署提供的盘古nlp大模型访问方式。 搜索Embedding模型:搜索向量化模型,支持将文本转化成向量。
模型管理 新增模型 修改模型配置 列举模型 删除模型
修改模型配置 功能介绍 修改模型配置 URI PUT /v1/koosearch/models/{model_name} 表1 路径参数 参数 是否必选 参数类型 描述 model_name 是 String 模型名称 最小长度:1 最大长度:64 请求参数 表2 请求Header参数
列举模型 功能介绍 列举模型 URI GET /v1/koosearch/models/search 表1 Query参数 参数 是否必选 参数类型 描述 model_name 否 String 模型名称 最小长度:1 最大长度:64 model_type 否 String 模型类型,枚举值:embedding
说明 模型服务名称 自定义模型服务名称,不能为空。 模型类型 选择“NLP模型-昇腾云”,表示通过昇腾云的MaaS服务提供的NLP大模型访问方式。如果选择此模型进行问答,建议设置模型生成最大新词数不超过512。 访问地址 MaaS服务的模型服务的“API接口公网地址”。获取方式请参见步骤1:在MaaS部署模型服务。
us企业搜索服务基于业界效果突出的搜索模型、云搜索服务的高性能GaussDB向量数据库以及LLM模型组成行业RAG解决方案,导入非结构化或者结构化业务数据,帮助企业客户快速一站式搭建企业智能问答应用。搜索增强大模型,数据来源于搜索,解决大模型幻觉问题,生成的问答结果更可靠、安全。
单击“查看虚拟私有云”跳转到虚拟私有云列表,查看已创建或共享至当前账号下的VPC名称和ID。 如果没有合适的VPC,建议联系CSS服务管理员新建VPC,具体请参见创建虚拟私有云和子网。 子网 集群使用子网实现与其他网络的隔离,并独享所有网络资源,以提高网络安全。 选择当前虚拟私有云下集群需要的子网。支持选择共享VPC下的子网。
到减少下游大模型推理成本,以及提升大模型的推理效果。 缓存 利用缓存技术,预先存储频繁请求的信息,系统从缓存中快速提供,节省时间和资源。 搜索大模型 文本向量模型 支持将文本转化为用数值表示的向量形式用于语义检索。 文本精排模型 可更加精准找到相关文本,不同于向量模型输出向量,直
OCR增强功能是引用OCR服务能力,来增强实例的搜索和问答能力。 开通OCR增强插件会创建委托访问文字识别服务,需额外计费。 网络配置 虚拟私有云 指定集群节点使用的虚拟专用网络,实现不同业务的网络隔离。 单击“查看虚拟私有云”跳转到虚拟私有云列表,查看已创建或共享至当前账号下的VPC名称和ID。 如果没有合
presence_penalty 否 Float 用于调整模型对新Token的处理方式。即如果一个Token已经在之前的文本中出现过,那么模型在生成这个Token时会受到一定的惩罚。当presence_penalty的值为正数时,模型会更倾向于生成新的、未出现过的Token,即模型会更倾向于谈论新的话题。 最小值:-2
Flexus企业搜索服务使用流程 华为云企业搜索KooSearch是基于华为云的云搜索服务搭建的一站式智能搜索解决方案,帮助企业聚焦业务场景和应用开发,场景服务化、技术简单化、低门槛化,满足开发者基于业务场景的二次开发。在RAG(Retrieval-Augmented Gener
自定义规则解析示例 在“模型设置”页签配置好模型后,单击“下一步”。 搜索模型设置 选择Embedding模型服务、精排模型服务、搜索规划模型服务。 Embedding模型服务:基于盘古大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、聚类、推荐等场景。 精排模型服务:基
说明: 如果选择NLP模型-昇腾云类型的模型服务进行问答,建议设置模型生成最大新词数不超过512。 非搜索增强模型生成多样性(temperature) 控制非搜索增强模型文本的随机性,值越高,文本随机性越、多样性和创造性越高。默认值为0.8。 搜索增强模型生成多样性(temperature)
录页 文档拆分设置:自动分段、长度分段(按文本长度分段)、层级分段(按小标题分段,可自定义小标题解析规则) 搜索模型设置:rerank模型配置 NLP模型设置:生成模型选择 其他设置:召回数量、精排开关、参考文档数量、意图分类、Query改写开关 URI PUT /v1/koos
embedding_model String embedding模型名称 最小长度:1 最大长度:64 rerank_model String rerank模型名称 最小长度:1 最大长度:64 nlp_model String nlp模型名称 最小长度:1 最大长度:64 file_extract
embedding_model String embedding模型名称 最小长度:1 最大长度:64 rerank_model String rerank模型名称 最小长度:1 最大长度:64 nlp_model String nlp模型名称 最小长度:1 最大长度:64 file_extract
embedding_model 否 String embedding模型名称 最小长度:1 最大长度:32 rerank_model 否 String rerank模型名称 最小长度:1 最大长度:32 pangu_nlp_model 否 String nlp大模型名称 最小长度:1 最大长度:32 file_extract
配置Flexus企业搜索服务集群路由 当KooSearch服务需要主动访问公网,或者是需要跨网络访问KooSearch API,则需要配置KooSearch服务的集群路由,连通网络。 操作步骤 进入KooSearch服务详情页面。 登录云搜索服务管理控制台。 在左侧导航栏选择“K