检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
调用NLP大模型 使用“能力调测”调用NLP大模型 使用API调用NLP大模型 统计NLP大模型调用信息 父主题: 开发盘古NLP大模型
plugin_start,插件调用请求节点,表示调用插件的请求信息。 plugin_end,插件调用响应节点,表示调用插件的响应信息。 statistic_data,执行数据节点,包含本次调用的耗时信息。 summary_response,消息总结节点,包含本次调用的全量响应信息。 done,流式调用结束节点,表示流式响应结束。
通用文本(/text/completions) Java、Python、Go、.NET、NodeJs、PHP 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。 开发环境要求 华为云盘古大模型推理SDK要求:
确性。大规模预训练模型则是指模型参数达到千亿、万亿级别的预训练模型。此类大模型因具备更强的泛化能力,能够沉淀行业经验,并更高效、准确地获取信息。 大模型的计量单位token指的是什么 令牌(Token)是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。模型的输入
设置多轮对话时,message中content个数不能超过20。 最小长度:1 最大长度:不同模型支持的token长度请参见《产品介绍》“模型规格 > 模型基础信息”章节。 响应参数 非流式 状态码: 200 表6 响应Body参数 参数 参数类型 描述 id String 用来标识每个响应的唯一字符串。