检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
模型状态异常,请联系技术支持。您可以登录华为云官网,在华为云首页,单击右上角的“联系我们”,反馈您所遇到的问题,技术支持会快速为您定位问题,解决问题。 400 KOS.00040002 调用多轮改写服务异常 调用多轮改写服务异常。 模型状态异常,请联系技术支持。您可以登录华为云官网,在华为云首页,单击右上
的Endpoint为“iam.cn-southwest-2.myhuaweicloud.com”。 resource-path 资源路径,即API访问路径。从具体API的URI模块获取,例如“获取用户Token”API的resource-path为“/v3/auth/tokens”。
在新建模型服务页面。根据下表填写对应参数后,单击“确定”按钮。 表1 新建模型服务 参数 说明 模型服务名称 输入模型服务名称,不能为空。 模型类型 NLP模型-云底座:通过华为云提供的盘古nlp大模型访问方式。 NLP模型-昇腾云:通过昇腾云的MAAS服务提供的nlp大模型访问方式。如果选择此模型进行问答,建议设置模型生成最大新词数不超过512。
当IP地址取的是16位,则子网掩码填“255.255.0.0”。 当IP地址取的是24位,则子网掩码填“255.255.255.0”。 说明: 子网掩码必须要覆盖IP网段,即子网掩码和IP地址转换为二进制后,IP地址最后的0个数一定要比子网掩码的最后为0的个数多。 更改类型 选择集群路由的更改类型。 “添加”:新增路由
最大长度:512 表7 NlpConfig 参数 是否必选 参数类型 描述 context_length 是 Integer 上下文长度,即NLP大模型在进行一次特定的推理时可以考虑的最大令牌数 最小值:4 最大值:128 缺省值:4 响应参数 状态码: 400 表8 响应Body参数
最大长度:512 表6 NlpConfig 参数 是否必选 参数类型 描述 context_length 是 Integer 上下文长度,即NLP大模型在进行一次特定的推理时可以考虑的最大令牌数 最小值:4 最大值:128 缺省值:4 响应参数 状态码: 400 表7 响应Body参数
勾选后,解析结果中包含目录页。 拆分设置:即分段设置,选择分段方式。 表2 拆分设置 参数 说明 自动分段 系统根据文档特点自动选择合适的分段方式。 长度分段 默认按照段落进行拆分合并,如果段落过长则通过标识符进行分段。 分段标识符:分段方式为遇到所选符号即截断,符号之间没有优先级,最终分
State Transfer)风格API,支持您通过HTTPS请求调用。 调用方法请参见如何调用API。 终端节点 终端节点(Endpoint)即调用API的请求地址,Flexus企业搜索服务局点在贵阳一,终端节点见表1。 表1 Flexus企业搜索服务终端节点 区域名称 区域 终端节点(Endpoint)
最小长度:1 最大长度:512 表8 NlpConfig 参数 参数类型 描述 context_length Integer 上下文长度,即NLP大模型在进行一次特定的推理时可以考虑的最大令牌数 最小值:4 最大值:128 缺省值:4 请求示例 无 响应示例 状态码: 200 模型列表
模型在生成这个Token时会受到一定的惩罚。当presence_penalty的值为正数时,模型会更倾向于生成新的、未出现过的Token,即模型会更倾向于谈论新的话题。 最小值:-2 最大值:2 最小值:-2 最大值:2 缺省值:0 search_temperature 否 Float