检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
符,可将会话ID设置为任意值,使用标准UUID格式。 图2 获取应用调用路径-2 使用Postman调用API 获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入应用的调用路径,详见获取调用路径。
间以原到期时间为准,需支付从进入保留期开始至续费时的费用。 账户欠费后,部分操作将受限,建议您尽快续费。具体受限操作如下: 按需方式的API接口不可调用。 无法开通服务。
步骤1:获取文本翻译服务Token与调用地址 在创建多语言文本翻译工作流的实践中,需要调用华为云文本翻译服务API,调用前需获取文本翻译服务的Token,获取Token步骤如下: 使用IAM账号进入API Explorer服务,在左上角选择“统一身份认证服务”,单击“Token管理 > 获取IAM用户Token(使用密码)”。
更多的业务场景数据。示例如下: 大模型输入: 请改写命令案例,生成10个相似命令,保证每个命令都可以调用正确的指标接口。 请注意: 1. 命令必须契合人类常见的提问方式,命令方式必须保证多样化 2. 生成的命令只能改写命令案例中文表达部分的内容 指标接口名称:利润的平均值、市值的平均值
提供相关示例:在提示词中加入类似的示例,帮助模型学习解题的模式和思路。通过这些示例,模型能够理解如何通过不同的推理步骤逐渐得出结论。 例如,在数学问题中,可以通过展示从问题解析到公式应用再到最终解答的完整过程,帮助模型理解问题解决的逻辑。 引导模型分析:如果没有直接的示例或现有示
型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。 本实践将使用华为云文本翻译API,请先完成创建多语言文本翻译插件操作。 操作流程 创建盘古多语言文本翻译工作流的流程见表1。 表1 创建盘古多语言文本翻译工作流流程 操作步骤
知识库支持导入以下格式的本地文档: 文本文档数据。支持上传常见文本格式,包括:txt、doc、docx、pdf、ppt、pptx格式。 表格数据。支持上传常见的表格文件格式,便于管理和分析结构化数据,包括:xlsx、xls、csv格式。 无论是文本文档、演示文稿,还是电子表格文件
需要站在模型的角度理解相关任务的真实底层任务,并清晰描述任务要求。 例如,在文档问答任务中,任务本质不是生成,而是抽取任务,需要让模型“从文档中抽取出问题的答案,不能是主观的理解或解释,不能修改原文的任何符号、字词和格式”, 如果使用“请阅读上述文档,并生成以下问题答案”,“生成”一词不是很恰当,模型会引入一些外部知识。
重复段落长度占比。 非中文字符占比。 句子特征过滤 该算子将文档中的标点符号作为句子分隔符,统计每句字符长度,若文档平均字符长度大于设置字符,则保留,反之则删除整篇文档。根据如下特征过滤: 待保留的平均句长。 词语特征过滤 词个数表示按照系统词库,对文档进行分词,分词后统计词的总个数,平均词长度为
海洋模型数据获取方式:https://data.hycom.org/datasets/GLBv0.08/expt_53.X/data/ 气象/降水模型获取方式示例: 示例一:以下载2021年7月16日高空变量数据为例,下载内容为高空变量(重力位势、u风、v风、比湿、温度,1000、925、850、700
使用盘古NLP大模型创建Python编码助手应用 场景描述 该示例演示了如何使用盘古NLP大模型创建Python编码助手执行应用,示例将使用Agent开发平台预置的Python解释器预置插件。 “Python解释器插件”能够执行用户输入的Python代码,并获取结果。此插件为应用
自定义插件:平台支持开发者创建自定义插件。支持开发者将工具、Function或者API通过配置方式快速创建为一个插件,并供Agent调用。 自定义知识库:平台提供了知识库功能来管理和存储数据,支持为AI应用提供自定义数据,并与之进行互动。多种格式的本地文档(支持docx、pptx、pdf等)都可以导入至知识库。
使用该功能调用部署后的预置服务进行文本对话,支持设置人设和参数等。 使用“能力调测”调用NLP大模型 使用API调用NLP大模型 可调用API接口与NLP预置服务进行文本对话。 使用API调用NLP大模型 图2 科学计算预置模型使用流程图 表2 科学计算预置模型使用流程表 流程 子流程 说明
根据每个客户的金牌客服话术,可以对对话模型进行有监督微调,进一步优化其性能。 根据每个客户的实际对话知识,如帮助文档、案例库和FAQ库等,可以使用“先搜后推”的解决方案。客户的文档库可以实时更新,大模型的应答可以无缝实时更新。(搜索+大模型解决方案) 父主题: 大模型概念类问题
文件要求 文档 txt、mobi、epub、docx、pdf 单个文件大小不超过50GB,文件数量最多1000个。 网页 html 单个文件大小不超过50GB,文件数量最多1000个。 预训练文本 jsonl jsonl格式:text表示预训练所使用的文本数据,具体格式示例如下:
身份认证与访问控制 用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。经过认证的请求总是需要
添加CoT思维链提示 对于复杂推理问题(如数学问题或逻辑推理),通过给大模型示例或鼓励大模型解释推理过程,可以引导大模型生成准确率更高的结果。 单样本/多样本 可以在提示词中提供示例,让模型先学习后回答,在使用这种方法时需要约束新样例不能照抄前面给的参考样例,新样例必须多样化、不
盘古推理SDK简介 推理SDK概述 盘古大模型推理SDK是对REST API进行的封装,通过该SDK可以处理用户的输入,生成模型的回复,从而实现自然流畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(/chat/completions)
新增知识库中知识文档。单击右上角“继续上传”,可上传本地文档至当前知识库。 删除知识库中知识文档。在“知识文档”中单击操作列“删除”可删除当前知识文档。 获取知识库ID、删除知识库 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“Agent开发”,跳转至Agent开发平台。
一定的不足,例如,处理复杂、专业的内容时。 为了解决这些问题,构建一个自动化的多语言翻译工作流显得尤为重要。通过集成翻译工具(如机器翻译API、大型语言模型等),可以在保证翻译效率的同时,提升翻译质量,并根据实际场景和用户需求进行灵活调整。 本章将详细介绍如何利用不同的节点构建一