检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入工作流的调用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-A
要填写外部模型的接口名称、接口地址、请求体、响应体等信息。 请求体支持openai、tgi、自定义三种格式。openai格式即是由OpenAI公司开发并标准化的一种大模型请求格式;tgi格式即是Hugging Face团队推出的一种大模型请求格式。 接口的响应体需要按照jsonp
Explorer服务,在左上角选择“统一身份认证服务”,单击“Token管理 > 获取IAM用户Token(使用密码)”。 如图2,配置请求体参数。 图2 配置请求体参数 其中,domain_id、domain_name、project_id、project_name获取方式如下: 登录管理控制台。
获取Token。参考《API参考》文档“如何调用REST API认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入调用路径(API请求地址)。 参考图8填写2个请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-
如何调用REST API 构造请求 认证鉴权 返回结果
是普通对话文本,还是包含翻译请求的文本,都将从此节点开始。 意图识别节点:该节点对用户输入的文本进行分类和分析,识别出用户的意图。主要包括以下两种意图: 文本翻译意图:系统识别出用户希望进行文本翻译的请求。 其他意图:包括普通对话、问答、或其他功能请求。该分支最终会引导文本到大模型节点进行处理。
使用前必读 概述 调用说明 请求URI 基本概念
模型开发-模型最小训练单元 不同模型的最小训练单元有所不同,具体信息请参见模型能力与规格。 模型开发-NLP大模型请求的最大Token数 不同系列的NLP大模型支持请求的最大Token数有所不同,具体信息请参见模型能力与规格。
翻译”,此时工作流将运行“提问器”节点分支,并依次运行后序节点,最终输出翻译后的内容。 图1 试运行工作流-1 其他意图:用户其他的请求(除翻译请求外)将执行大模型节点分支,并根据用户的提问进行回答。 如图2,当用户输入对话类问题时(如“你好”),“意图识别”节点对用户的意图分类
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。 图1
选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。 资源配置
获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入应用的调用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-A
都能根据输入需求灵活调整,生成符合预期的高质量内容。 推理速度快 盘古大模型采用了高效的深度学习架构和优化算法,显著提升了推理速度。在处理请求时,模型能够更快地生成结果,减少等待时间,从而提升用户体验。这种快速的推理能力使盘古大模型适用于广泛的应用场景。在需要实时反馈的业务中,如
提供大模型额外的提示信息,用于更准确的提取参数,例如指定被提取参数的格式要求。 深度定制 示例配置 用户配置的示例内容,配置后会在大模型的请求中添加“#示例 {{用户配置的内容}}”。 输入改写 日期时间改写 开启后,用户问题涉及日历、日期及时间相关内容时,系统将进行运算,补充具体时间点,以便大模型更准确的理解。