检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
输入的文本加上生成的文本总量不能超过模型所能处理的最大长度。 最小值:1 最大值:不同模型支持的token长度,请参见《产品介绍》“模型规格 > 模型基础信息”章节。 缺省值:默认部署时token长度最大值,请参见《产品介绍》“模型规格 > 模型基础信息”章节。 说明: token是指模型处理和生成文本的基本
P大模型 > 训练NLP大模型 > NLP大模型训练流程与选择建议”。 关于平台接入的数据格式要求,请参考《用户指南》“使用数据工程准备与处理数据集 > 数据集格式要求”。 平台上单个用户最多可创建和管理2000个模型实例。
格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 盘古NLP大模型规格 模型支持区域 模型名称 可处理最大Token长度 说明 西南-贵阳一 Pangu-
的科学计算大模型,单击“调用路径”,在“调用路径”弹窗获取调用路径。 图2 获取预置服务调用路径 获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入步骤2的API请求地址。 参考图3填写2个请求Header参数。
意图识别组件用于根据用户的输入进行分类并导向后续不同的处理流程。 意图识别组件一般位于工作流前置位置。在对用户的输入进行意图识别时,意图识别组件会通过大模型推理,匹配用户输入与开发者预先定义的描述类别的关键字,并根据匹配结果流向对应处理流程。 在左侧组件面板中拖拽出一个“意图识别”组件,并放置在工作流中。