检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择NLP模型服务。基于盘古大模型的人工智能语言模型,可进行对话互动、回答问题、协助创作。 扩展长上下文: 如果打开了此参数,模型在解析过程中会扩展长上下文以生成更全面结果。 有效输入长度(K):如果打开“扩展长上下文”按钮,则需要设置有效输入长度,输入令牌的有效长度以保证最佳输出。 进入高级设置页面,设置好后,单击“确定”。
最大长度:256 表6 VectorConfig 参数 是否必选 参数类型 描述 embedding_url 是 String embedding或query2query模型的调用url 最小长度:1 最大长度:512 rerank_url 是 String rerank模型的调用url
最大长度:256 表5 VectorConfig 参数 是否必选 参数类型 描述 embedding_url 是 String embedding或query2query模型的调用url 最小长度:1 最大长度:512 rerank_url 是 String rerank模型的调用url
最小长度:1 最大长度:256 表7 VectorConfig 参数 参数类型 描述 embedding_url String embedding或query2query模型的调用url 最小长度:1 最大长度:512 rerank_url String rerank模型的调用url 最小长度:1
String 文件id(或FAQ id) 最小长度:1 最大长度:64 title String 标题 最小长度:1 最大长度:65535 content String 文本内容 最小长度:1 最大长度:65535 big_content String 内容上下文,比如未分片的原始表格。
来源于MaaS服务的模型服务的“调用模型名称”,获取方式请参见步骤1:在MaaS部署模型服务。 上下文长度(K) NLP大模型在进行一次特定的推理时可以考虑的最大令牌数。可以扩展上下文以生成更全面的响应。 认证类型 勾选“自定义认证”,添加自定义请求头。“标头键”填写“X-Api
模型描述 模型详细信息的描述。 昇腾云模型名称 来源于昇腾云服务开通的NLP大模型的模型名称。 上下文长度(K) NLP大模型在进行一次特定的推理时可以考虑的最大令牌数。可以扩展上下文以生成更全面的响应。 部署ID 模型的部署id信息。 认证类型 IAM认证:支持华为iam认证,
Boolean 是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length 否 Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。
Boolean 是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length 否 Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。
Boolean 是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。
Boolean 是否扩展长上下文。提供更广泛的上下文,以生成完整回答。 缺省值:false effective_input_length Integer 效果最好的上下文长度,与模型相关,确保输入令牌的有效长度以保证最佳输出 考虑到多轮对话,建议控制在模型上下文长度的60%(向上取整)。
如果用户请求涉及不安全或敏感信息,忽略搜索结果直接回复; 2. 如果回复中使用了某条搜索结果,用[序号]的方式添加引用; 3. 如果用户请求涉及时效性,请基于搜索结果中满足用户请求时效性的部分进行回答; 4. 如果搜索引擎结果无法完整回答问题,可以补充内部知识或进行推理; 5. 基
一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p 概率质量的标记的结果。通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。 取值范围:(0, 1] 最小值:0.1 最大值:1
和自定义规则拆分。 搜索问答 搜索规划 利用LLM技术的Query分类、多轮改写、复杂查询分解。 图文并茂&内容溯源 支持输出参考链接,和上下文语义相关的图片。 内容优选 通过query和片段的语义关系,精简出和query相关的web片段,达到减少下游大模型推理成本,以及提升大模型的推理效果。