检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
"completion_tokens": 365, "prompt_tokens": 9, "total_tokens": 374 } } 当接口调用出错时,会返回错误码及错误信息说明。 token有效期为24小时,下面的报错表示token过期。 {
获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入工作流的调用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。
NLP大模型 文本对话 父主题: API
Agent 调用应用 调用工作流 父主题: API
型。可进行对话互动、回答问题、协助创作。 盘古大模型在ModelArts Studio大模型开发平台部署后,可以通过API调用推理接口。 表1 API清单 API 功能 操作指导 NLP大模型-文本对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 文本对话 科学计算大模型-气象/降水模型
科学计算大模型 气象/降水模型 海洋模型 父主题: API
请求URI 服务的请求URI即API服务的终端地址,通过该地址与API进行通信和交互。 URI获取步骤如下: 登录ModelArts Studio大模型开发平台。 进入所需工作空间。 获取请求URI。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 >
海洋模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
获取项目ID。在页面右上角“我的凭证”,在“API凭证”页面可获取项目ID。 图7 获取项目ID 获取Token。参考《API参考》文档“如何调用REST API认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入调用路径(API请求地址)。 参考图8填写2个请求Header参数。
气象/降水模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
附录 状态码 错误码 获取项目ID 获取模型部署ID
单击左侧导航栏“调用统计”,选择“NLP”页签。 选择当前调用的NLP大模型,可以按照不同时间跨度查看当前模型的调用总数、调用失败的次数、调用的总Tokens数、以及输入输出的Tokens数等基本信息。 此外,该功能还提供了可视化界面,可额外查看响应时长以及安全护栏拦截次数。 父主题: 调用NLP大模型
使用前必读 概述 调用说明 请求URI 基本概念
状态码 HTTP状态码为三位数,分成五个类别:1xx:相关信息;2xx:操作成功;3xx:重定向;4xx:客户端错误;5xx:服务器错误。 状态码如下所示。 状态码 编码 状态说明 100 Continue 继续请求。 这个临时响应用来通知客户端,它的部分请求已经被服务器接收,且仍未被拒绝。
盘古大模型提供了REST(Representational State Transfer)风格的API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。 调用API时,需要用户网络可以访问公网。 父主题: 使用前必读
由账号在IAM中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。 在我的凭证下,您可以查看账号ID和用户ID。通常在调用API的鉴权过程中,您需要用到账号、用户和密码等信息。 区域(Region) 从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存
获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入应用的调用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。 参数
更强的泛化能力,能够沉淀行业经验,并更高效、准确地获取信息。 大模型的计量单位token指的是什么 令牌(Token)是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或计算。 例如,在
如下: 配置文本翻译插件的Token。 单击右上角“试运行”,在“插件配置”中单击“添加参数”,填写X-Auth-Token和Token值,单击“开始运行”。 其中,X-Auth-Token为文本翻译的鉴权参数,Token值由创建多语言文本翻译插件获取。 图13 插件配置 试运行工作流。在“试运行”页面,输入对话。
模型生成的结果不完整,出现了异常截断。这种情况可能是由于以下几个原因导致的,建议您依次排查: 推理参数设置:请检查推理参数中的“最大Token限制”参数的设置,适当增加该参数的值,可以增大模型回答生成的长度,避免生成异常截断。请注意,该参数值存在上限,请结合目标任务的实际需要以及模型支持的长度限制来调整。