检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
热身比例 0.1 0~1 热身阶段占整体训练的比例。 模型刚开始训练时,如果选择一个较大的学习率,可能导致模型训练不稳定。选择使用warmup热身的方式,可以使开始训练的热身阶段内学习率较小,模型可以慢慢趋于稳定,待模型相对稳定后再逐渐提升至预设的最大学习率进行训练。
提示词是什么 提示词也称为Prompt,是与大模型进行交互的输入,可以是一个问题、一段文字描述或者任何形式的文本输入。 提示词要素 指令:要求模型执行的具体任务或回答的问题。如:“写一篇关于勇士的小说”、“天空为什么是蓝色的?” 说明:对任务要求的补充说明。
通过重试机制,在代码里检查返回值,碰到并发错误可以延时一小段时间(如2-5s)重试请求。 后端检查上一个请求结果,上一个请求返回之后再发送下一个请求,避免请求过于频繁。 父主题: 附录
// 建议在业务项目入口处配置 // 不需要添加.properties后缀 ConfigLoadUtil.setBaseName("application"); 完整配置项如下: 配置项中的密码等字段建议在配置文件或者环境变量中密文存放,使用时解密,确保安全,详见配置文件敏感信息加密配置
token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或者计算。 user 否 String 用于代表用户的唯一标识符,字符串长度最大64,最小1。
如果服务是分布式的,需要将session对象在外部持久化。 单步执行 有时并不希望Agent完全自主执行,在某些关键节点,让用户先进行确认,确认后再执行,或者用户对模型的结果有异议或者想法有变化,想对当前结果进行更改。
配置LLMs(Python SDK) LLMs模块用于对大语言模型API的适配封装,提供统一的接口快速地调用盘古、GALLERY三方模型等模型API。 初始化:根据相应模型定义LLM类,如使用盘古LLM为: LLMs.of("pangu")。 from pangukitsappdev.api.llms.factory
如果指标低是由于提示词(prompt)设置不合理,可以通过在模型训练阶段扩大训练集和验证集来优化模型,从而改善评估结果。另外,还可以将评估数据集设计得更接近训练集的数据,以提升评估结果的准确性。 父主题: 评估盘古大模型
其中,n-gram指的是一个句子中连续的n个单词片段。BLEU-4 的数值越高,表明模型性能越好。 困惑度指标介绍 困惑度用来衡量大语言模型预测一个语言样本的能力。数值越低,准确率越高,表明模型性能越好。 父主题: 训练盘古大模型
token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或计算。不同系列模型在读取中文和英文内容时,字符长度转换为token长度的转换比如下。以N1为例,盘古模型1token≈0.75个英文单词,1token≈1.5汉字。
token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或者计算。 presence_penalty 否 Float 用于调整模型对新Token的处理方式。