检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
1724915285, "choices": [ { "index": 0, "text": "故事标题:《穿越宋朝的奇妙之旅》在一个阴雨绵绵的夜晚,一个名叫李晓的年轻人正在阅读一本关于宋朝的历史书籍。突然,
果的样式,如长度、随机性、创造性、多样性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考: 表1 推理参数的建议和说明 推理参数 范围 建议值 说明 温度(temperature) 0~1 0.3
训练预测大模型时,所需的数据通常为表格格式,即由行和列组成的扁平化数据。具体要求如下: 行:每行代表一个样本。每行与其他行具有相同的列,并且顺序相同,这些行通常按照某种特定顺序排列。 列:每列表示一种特征。每列的数据类型应保持一致,不同列可以具有不同的数据类型。 顺序:表格中的行通常按照特定顺序排列。
用。 插件节点为可选节点,若无需配置,可跳过该步骤。 插件节点配置步骤如下: 拖动左侧“插件”节点至画布中,在“个人插件”或“预置插件”页签单击“”,将插件添加至画布中。 预置插件为平台内置的插件 个人插件为用户自定义的插件,创建插件步骤详见创建插件。 单击画布中已添加的“插件”节点,参照表5,完成插件节点的配置。
2024年11月发布的版本,支持4K序列长度推理,支持4个推理单元部署。 Pangu-NLP-BI-32K-20241130 2024年11月发布的版本,支持32K序列长度推理,支持8个推理单元部署。 在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调
Integer 生成的文本在列表中的索引,从0开始。 ppl Double 评估指标,表示推理输出的置信度,ppl为非必传参数。 表8 message 参数 参数类型 描述 role String 角色。 content String 对话的内容。 最小长度:1 最大长度:不同模型支持的token长度请参见《产品介绍》“模型规格
盘古NLP大模型规格 模型支持区域 模型名称 可处理最大上下文长度 可处理最大输出长度 说明 西南-贵阳一 Pangu-NLP-N1-Chat-32K-20241130 32K 4K 2024年11月发布的版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调、LoRA微调8个训练单元起训,1个推理单元即可部署。
oken长度,选择合适的模型,从而提高模型的整体效果,详见表1。 此外,不同类型的NLP大模型在训练过程中,读取中文、英文内容时,字符长度转换为Token长度的转换比有所不同,详见表2。 表1 不同系列NLP大模型对处理文本的长度差异 模型名称 可处理最大Token长度 说明 P
输入插件名称及插件描述,配置完成单击“下一步”。 图6 创建插件 为保证插件检索的效果,平台限制插件名称必须为英文、下划线组合,插件描述会影响插件的选用。 填写“插件URL”(步骤1:获取文本翻译服务Token与调用地址中获取的文本翻译API调用地址),选择请求方式为“POST”。权限校验选择“用户级鉴权 >
知识型Agent:以大模型为任务执行核心,适用于文本生成和文本检索任务,如搜索问答助手、代码生成助手等。用户通过配置Prompt、知识库等信息,使得大模型能够自主规划和调用工具。 优点:零代码开发,对话过程智能化。 缺点:大模型在面对复杂的、长链条的流程时可能会受到输入长度限制,难以有效处理较为复杂的工作流。
置。 表2 插件参数配置说明 参数类型 参数名称 参数说明 请求参数 参数名称 参数的名称,长度为1 ~ 50个字符,参数名称会作为大模型解析参数含义的依据。 参数描述 参数的描述,长度为1 ~ 200个字符,参数描述会作为大模型解析参数含义的依据。 参数类型 该参数值的数据类型,当前支持三种类型。
古大模型的提示工程。 本文的方法论及技巧部分使用了较为简单的任务作为示例,以便简明易懂地说明这些技巧在提示工程中的应用。随着模型的进化和理解能力的提升,尽管在简单任务中模糊的指示也会取得较好的效果,但对于规则越复杂的任务,越需要应用这些技巧来输出一个逻辑自洽、清晰明了的指令。 提示词是什么
点是成本较高。 当您将无监督数据构建为有监督数据时,请尽可能保证数据的多样性。建议将不同文本构建为不同的场景,甚至将同一段文本构建为多个不同的场景。 不同规格的模型支持的长度不同,当您将无监督数据构建为有监督数据时,请确保数据长度符合模型长度限制。 父主题: 大模型微调训练类问题
truncated:必选字段,取值0或1,表示标注内容是否被截断(0表示被截断、1表示没有截断)。 occluded:必选字段,取值0或1,表示标注内容是否被遮挡(0表示未遮挡、1表示遮挡) difficult:必选字段,取值0或1,表示标注目标是否难以识别(0表示容易识别、1表示难易识别)。
提示词工程类 如何利用提示词提高大模型在难度较高推理任务中的准确率 如何让大模型按指定风格或格式回复 如何分析大模型输出错误回答的根因 为什么其他大模型适用的提示词在盘古大模型上效果不佳 如何判断任务场景应通过调整提示词还是场景微调解决
创建提示词评估数据集 批量评估提示词效果前,需要先上传提示词变量数据文件用于创建对应的评估数据集。 提示词变量是一种可以在文本生成中动态替换的占位符,用于根据不同的场景或用户输入生成不同的内容。其中,变量名称可以是任意的文字,用于描述变量的含义或作用。 提示词评估数据集约束限制 上传文件限xlsx格式。
默认值:0 核采样 控制生成文本多样性和质量。调高核采样可以使输出结果更加多样化。 默认值:1.0 最大口令限制 用于控制聊天回复的长度和质量。 默认值:2048 话题重复度控制 用于控制生成文本中的重复程度。调高参数模型会更频繁地切换话题,从而避免生成重复内容。 默认值:0 词汇重复度控制
) Java、Python、Go、.NET、NodeJs 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 - 通用文本(/text/completions) Java、Python、Go、.NET、NodeJs、PHP 给定一个提示和一些参数,模型会根据这些信息生成
流通文本类数据集 数据流通是将单个数据集发布为特定格式的“发布数据集”的过程,用于后续模型训练等操作。 单个文本类数据集支持发布的格式为: 默认格式:平台默认的格式。 在默认格式中,context和target是键值对。示例如下: {"context": "你好,请介绍自己", "target":
理AI算子,多种标注工具,满足用户多任务多场景需求,提高开发/标注效率>10X。 0代码,模型开发“简” ModelArts Studio大模型开发平台预置盘古系列预训练大模型,支持快速开发,全程0代码开发,极大降低大模型开发门槛。 功能强,Agent开发“好” Agent开发提