正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
状态码 HTTP状态码为三位数,分成五个类别:1xx:相关信息;2xx:操作成功;3xx:重定向;4xx:客户端错误;5xx:服务器错误。 状态码如下所示。 状态码 编码 状态说明 100 Continue 继续请求。
每个模型请求的最大Token数有所差异,详细请参见模型的基础信息。 模型所支持的训练数据量、数据格式要求请参见《用户指南》“准备训练数据集 > 模型训练所需数据量与数据格式要求”。
通过set_max_iterations可以设置最大迭代次数,控制Agent子规划的最大迭代步数,防止无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Agent-L0.C模型,或其衍生模型,使用通用模型或其他模型无法运行。
数据行数不小于10行,不大于50行。 数据不允许相同表头,表头数量小于20个。 数据单条文本长度不超过1000。 创建数据集时会对相关限制条件进行校验。 数据参考格式 图1 数据参考格式 图2 数据示例 创建提示词评估数据集 登录盘古大模型套件平台。
学习率 0.0001 0~1 学习率用于控制每个训练步数(step)参数更新的幅度。需要选择一个合适的学习,因为学习率过大会导致模型难以收敛,学习率过小会导致收敛速度过慢。 模型保存步数 500 10的倍数 每训练一定数量的步骤(或批次)后,模型的状态就会被保存下来。
step:已完成的训练步数。 batch_size:每个训练步骤中使用的样本数据量。 sequence:每个数据样本中的token数量。 数据量以token为单位。
训练轮数越大,模型学习数据的迭代步数就越多,可以学得更深入,但过高会导致过拟合;训练轮数越小,模型学习数据的迭代步数就越少,过低则会导致欠拟合。 您可根据任务难度和数据规模进行调整。
历史对话保留轮数 选择“多轮对话”功能时具备此参数,表示系统能够记忆的历史对话数。 父主题: 调用盘古大模型
通过setMaxIterations可以设置最大迭代次数,控制Agent子规划的最大迭代步数,防止无限制的迭代或出现死循环情况。 Agent使用的模型必须为Pangu-NLP-N2-Default模型,或其衍生模型,使用通用模型或其他模型无法运行。
表2 部署实例量与推理单元数关系 模型类型 推理资源 盘古-NLP-N1系列模型 2K版:部署1实例占用0.125个推理单元。 8K版:最大Token长度为8192,部署1实例占用0.125个推理单元;最大Token长度为16384,部署1实例占用0.25个推理单元。
cat /etc/hccn.conf 执行如下命令,查看npu卡数。
历史对话保留轮数 选择要包含在每个新API请求中的过去消息数。这有助于为新用户查询提供模型上下文。参数设置为10,表示包括5个用户查询和5个系统响应。该参数只涉及多轮对话功能。
历史对话保留轮数 选择要包含在每个新API请求中的过去消息数。这有助于为新用户查询提供模型上下文。参数设置为10,表示包括5个用户查询和5个系统响应。该参数只涉及多轮对话功能。
一个比较常见的方法是,将无监督的文本按照章节、段落、字符数进行切片,让模型基于这个片段生成问答对,再将段落、问题和答案三者组装为有监督数据。使用模型构建的优点是数据丰富度更高,缺点是成本较高。 当您将无监督数据构建为有监督数据时,请尽可能保证数据的多样性。
本场景的一个Loss曲线示例如下: 图1 Loss曲线 通过观察,Loss曲线随着迭代步数的增加呈下降趋势直至稳定,证明整个训练状态是正常的。
本场景的一个Loss曲线示例如下: 图2 query改写/中控模型微调时的Loss曲线 图3 问答模型微调时的Loss曲线 通过观察,Loss曲线随着迭代步数的增加呈下降趋势直至稳定,证明整个训练状态是正常的。
本场景的一个Loss曲线示例如下: 图1 Loss曲线 通过观察,该Loss曲线随着迭代步数的增加呈下降趋势直至稳定,证明整个训练状态是正常的。若Loss曲线呈现轻微阶梯式下降,为正常现象。