检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
上传图片 功能介绍 上传图片入库。 URI POST /v1/koosearch/image/{img_id} 表1 路径参数 参数 是否必选 参数类型 描述 img_id 是 String 图片ID,格式为img-[0-9a-z]{32} 最小长度:1 最大长度:64 请求参数
新增模型 功能介绍 新增配置模型,包括模型名称、模型描述、模型endpoint、模型配置。 URI POST /v1/koosearch/models 请求参数 表1 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 接口鉴权使用的T
获取图片内容 功能介绍 根据ID获取图片内容。 URI GET /v1/koosearch/image/{img_id} 表1 路径参数 参数 是否必选 参数类型 描述 img_id 是 String 图片ID,格式为img-[0-9a-z]{32} 最小长度:1 最大长度:64
图片管理 上传图片 获取图片内容
删除模型 功能介绍 删除模型 URI DELETE /v1/koosearch/models/{model_name} 表1 路径参数 参数 是否必选 参数类型 描述 model_name 是 String 模型名称 最小长度:1 最大长度:64 请求参数 表2 请求Header参数
endpoint 否 String 模型endpoint 最小长度:1 最大长度:512 extend_config 否 ModelExtendConfig object 模型的自定义配置,json格式 alias 否 String 昇腾模型场景请求模型需要的name 最小长度:1 最大长度:32
模型管理 新增模型 修改模型配置 列举模型 删除模型
参数类型 描述 name String 模型名称 最小长度:1 最大长度:64 detail String 模型详情 最小长度:1 最大长度:512 type String 模型类型 最小长度:1 最大长度:64 endpoint String 模型endpoint 最小长度:1 最大长度:512
访问地址 模型的内网访问地址及端口。 模型描述 模型详细信息的描述。 昇腾云模型名称 来源于昇腾云服务开通的NLP大模型的模型名称。 上下文长度(K) NLP大模型在进行一次特定的推理时可以考虑的最大令牌数。可以扩展上下文以生成更全面的响应。 部署ID 模型的部署id信息。 认证类型
rch结合OCR服务文档识别能力,通过NET网关打通网络,使Koosearch支持智能文档解析能力,对PDF/Word等格式的文档内容进行版式分析,智能识别文档中的各种版式类型,如表格、图片、公式、标题等,以及识别单栏、双栏版面结构及段落顺序,对用户上传的文档进行智能解析。本文介
en时会受到一定的惩罚。当presence_penalty的值为正数时,模型会更倾向于生成新的、未出现过的Token,即模型会更倾向于谈论新的话题。 最小值:-2 最大值:2 最小值:-2 最大值:2 缺省值:0 search_temperature 否 Float 搜索增强场景用于控制生成文本的多样性和创造力。
Studio大模型即服务平台。 在ModelArts Studio大模型即服务平台选择合适的模型,创建为“我的模型”。操作指导请参见在MaaS中创建模型。 将创建好的模型部署为模型服务,具体操作请参见使用MaaS部署模型服务。 选择使用AppCode认证方式调用部署好的模型服务,具体操作请参见调用MaaS部署的模型服务。
通过query和片段的语义关系,精简出和query相关的web片段,达到减少下游大模型推理成本,以及提升大模型的推理效果。 缓存 利用缓存技术,预先存储频繁请求的信息,系统从缓存中快速提供,节省时间和资源。 搜索大模型 文本向量模型 支持将文本转化为用数值表示的向量形式用于语义检索。
自定义规则解析示例 在“模型设置”页签配置好模型后,单击“下一步”。 搜索模型设置 选择Embedding模型服务、精排模型服务、搜索规划模型服务。 Embedding模型服务:基于盘古大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、聚类、推荐等场景。 精排模型服务:基
根据指定ID,删除对应的对话历史。 批量删除对话历史 根据多个ID,批量删除对话历史信息。 表9 图片管理接口 API 说明 上传图片 上传图片入库。 获取图片内容 根据ID获取图片内容。 表10 模型管理接口 API 说明 新增模型 新增配置模型,包括模型名称、模型描述、模型endpoint、模型配置。
是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length 否 Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2
是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length 否 Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2
是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2
是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。 最小值:2
效果突出的搜索模型、云搜索服务的高性能GaussDB向量数据库以及LLM模型组成行业RAG解决方案,导入非结构化或者结构化业务数据,帮助企业客户快速一站式搭建企业智能问答应用。搜索增强大模型,数据来源于搜索,解决大模型幻觉问题,生成的问答结果更可靠、安全。为您提供托管的分布式搜索引擎服务+大模型生成能力。