检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
xx问题,请给我具体的xxx问题,以便我更好地解答。” 复述任务要求 可以让模型复述prompt中的要求,考察模型是否理解。 比如“现在有一个xxx任务,我会给你xxx,你需要xxxx。\n\n现在你充分理解这个任务了吗?详细解释一遍,不用举例子/请举例说明。” 父主题: 进阶技巧
4096 基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有4K上下文能力。 盘古-NLP-N2单场景模型-32K 32768 基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有32K上下文能力。
HH:mm") private String start; @AgentToolParam(description = "会议结束时间,格式为yyyy-MM-dd HH:mm") private String end;
集进行评估。通过查看测试集样本的PPL、BLEU和ROUGE等指标,进行横向(相同训练数据+不同规格的通用模型)或纵向(不同训练数据训练的多个模型版本)对比来判断训练过程是否出现了问题。 人工评测:您可以采用人工评测的方式,参照目标任务构造评测集,通过横向或纵向评估评测集的方式来验证模型效果。
高,表明模型性能越好。 BLEU-4 模型生成结果和实际句子的加权平均精确率,数值越高,表明模型性能越好。 困惑度 用来衡量大语言模型预测一个语言样本的能力,数值越低,准确率也就越高,表明模型性能越好。 指标适用的任务场景 任务答案是相对比较确定的,例如固定答案的问答任务、NL2SQL、NL2JSON、文本分类等。
dev.sdk.api.skill.base.SimpleSkill; final String promptTemplate = "讲一个关于{{subject}}的笑话,字数{{count}}字以内"; SimpleSkill skill = new SimpleSkill(LLMs
1 1~50 完成全部训练数据集训练的次数。 学习率 0.0001 0~1 学习率用于控制每个训练步数(step)参数更新的幅度。需要选择一个合适的学习,因为学习率过大会导致模型难以收敛,学习率过小会导致收敛速度过慢。 优化器 adamw adamw 用于更新模型权重的优化算法参数,可以选择adamw。
PromptTemplate # 自定义模板 prompt_template = PromptTemplate.from_template("讲一个关于{{subject}}的笑话,字数{{count}}字以内", template_format="jinja2") skill = S
自监督学习(Self-Supervised Learning,简称SSL)是一种机器学习方法,它从未标记的数据中提取监督信号,属于无监督学习的一个子集。该方法通过创建“预设任务”让模型从数据中学习,从而生成有用的表示,可用于后续任务。它无需额外的人工标签数据,因为监督信号直接从数据本身派生。
用于调整模型对新令牌(Token)的处理方式。即如果一个Token已经在之前的文本出现过,那么模型在生成这个Token时会受到一定的惩罚。当值为正数时,模型会更倾向于生成新的Token,即更倾向于谈论新的话题。 词汇重复度控制 用于调整模型对频繁出现的Token的处理方式。即如果一个Token在训练集中出现
查看盘古服务区域 图2 获取user name、domain name、project id 下载并安装Postman调测工具。 打开Postman,新建一个POST请求,输入“西南-贵阳一”区域的“获取Token”接口,并填写请求Header参数。 接口地址为:https://iam.cn-southwest-2
用于调整模型对新令牌(Token)的处理方式。即如果一个Token已经在之前的文本出现过,那么模型在生成这个Token时会受到一定的惩罚。当值为正数时,模型会更倾向于生成新的Token,即更倾向于谈论新的话题。 词汇重复度控制 用于调整模型对频繁出现的Token的处理方式。即如果一个Token在训练集中出现
然后根据模型的概率分布进行采样或者计算。 presence_penalty 否 Float 用于调整模型对新Token的处理方式。即如果一个Token已经在之前的文本中出现过,那么模型在生成这个Token时会受到一定的惩罚。当presence_penalty的值为正数时,模型会
一”区域对应的project id。 图3 获取user name、domain name、project id 打开Postman,新建一个POST请求,并输入“西南-贵阳一”区域的“获取Token”接口。并填写请求Header参数。 接口地址:https://iam.cn-southwest-2
4096 基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有4K上下文能力。 盘古-NLP-N2单场景模型-32K 32768 基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有32K上下文能力。
1 1~50 完成全部训练数据集训练的次数。 学习率 0.0001 0~1 学习率用于控制每个训练步数(step)参数更新的幅度。需要选择一个合适的学习,因为学习率过大会导致模型难以收敛,学习率过小会导致收敛速度过慢。 模型保存步数 500 10的倍数 每训练一定数量的步骤(或批次)后,模型的状态就会被保存下来。
符合主流价值观,并且文本中不能存在异常字符、分行异常等影响模型训练的问题。问题和答案需要匹配,且不能有空值。 文件类型为CSV:每一行代表一个问答对,确保每个问题和答案的数据都以逗号分隔,每行的数据完整且格式正确,文件中每个字段或列都应有适当的数据类型,例如文本、数值、日期等。每
如果需要约束输出格式,可以在提示词里体现。请注意输出格式中的key不要有语义重复,并且需要与前文要求中的key名字保持一致,否则模型会不理解是同一个key。 恰当的表述 可以尝试从英语的逻辑去设计提示词。 最好是主谓宾结构完整的句子,少用缩写和特殊句式。 应使用常见的词汇和语言表达方式
充数据,比如:同义词替换、语法结构修改、标点符号替换等,保证数据的多样性。 基于大模型的数据泛化:您可以通过调用大模型(比如盘古提供的任意一个规格的基础功能模型)来获取目标场景的数据,以此扩充您的数据集。为了能获取更高质量的数据,可以通过CoT(思维链)、self-instruc
配置文件敏感信息加密配置 配置项中的认证凭据等信息不建议明文配置在配置文件中,可以通过以下方式扩展自定义的加解密组件: 在一个module(yourmodule)中自定义一个解密方法decrypt_func(key_id, cipher),要求可以通过`from yourmodule import