检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
agentSession) { } /** * onSessionIteration调用结束后,检查Agent是否需要终止,如果需要终止,则返回true,默认不终止 * 可以在终止前对agentSession进行修改,如:修改agent的finalAnswer
ntent。 role表示对话的角色,取值是system或user。 如果需要模型以某个人设形象回答问题,可以将role参数设置为system。不使用人设时,可设置为user。在一次会话请求中,人设只需要设置一次。 content表示对话的内容,可以是任意文本。 messages
AgentSession): """ onSessionIteration调用结束后,检查Agent是否需要终止,如果需要终止,则返回true,默认不终止 可以在终止前对agentSession进行修改,如:修改agent的finalAnswer
调。 类似场景需要的微调数据量视具体情况而定,从经验上来说,若实际场景相对简单和通用,使用几千条数据即可;若场景复杂或专业,则需要上万条数据。 数据质量要求: 保证数据的分布和目标需要与实际场景匹配。 保证数据的覆盖度:数据需要尽可能覆盖产品所提供的功能;数据需要覆盖难易度、长短
优的模型性能,但需要大量的计算资源和时间,计算开销较高。 局部微调(LoRA):在模型微调过程中,只对特定的层或模块的参数进行更新,而其余参数保持冻结状态。这种方法在很多情况下可以显著减少计算资源和时间消耗,且依旧可以保持较好的模型性能。 训练模型 选择训练所需要的模型。支持选择“预置模型”或者“我的模型”。
配置训练参数。 表1 自监督训练参数说明 参数名称 说明 模型类型 选择“LLM”。 训练类型 选择“自监督训练”。 训练模型 选择训练所需要的模型,模型详细介绍请参见选择模型与训练方法。 训练参数 指定用于训练模型的超参数。 训练参数说明和调参策略请参见自监督微调训练参数说明。
大模型的计量单位token指的是什么? 大模型是否可以自定义人设? 盘古自然语言大模型的适用场景有哪些? 大模型的安全性需要从哪些方面展开评估和防护? 训练智能客服系统大模型需要考虑哪些方面? 更多 模型训练类 如何调整训练参数,使模型效果最优? 如何判断训练状态是否正常? 更多 数据集类
在左侧导航栏中选择“服务管理”,单击“开启内容审核”,进行授权。 图1 内容审核授权 购买内容审核套餐包,使用“文本补全”、“多轮对话”功能时需要购买“文本内容审核”套餐包。 图2 购买内容审核套餐包 父主题: 调用盘古大模型
典型训练问题和优化策略 什么情况下需要微调 什么情况下不建议微调 数据量很少,可以微调吗 数据量足够,但质量较差,可以微调吗 无监督的领域知识数据,量级无法支持增量预训练,如何让模型学习 如何调整训练参数,使模型效果最优 如何判断训练状态是否正常 如何评估微调后的模型是否正常 如何调整推理参数,使模型效果最优
登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型压缩”。 单击界面右上角“创建压缩任务”,进入创建压缩任务页面。 图1 模型压缩 选择需要进行压缩的模型执行模型压缩,压缩策略为“INT8”。当压缩模型为N2基础功能模型,或是经有监督微调训练和RLHF训练后的N2模型,支持选择“低消耗模式”,减少推理资源的消耗。
图1 盘古大模型套件使用流程 表1 使用流程说明 流程 子流程 说明 操作指导 准备工作 注册华为账号并开通华为云 在使用华为云服务之前您需要注册华为账号并开通华为云。 注册华为账号并开通华为云 购买盘古大模型套件 购买盘古系列大模型及推理资产。 购买盘古大模型套件 开通盘古大模型服务
AI助手在运行过程中遇到这些配置的参数时,它将抽取这些参数的取值与描述,并将这些信息记录到当前对话中。通过历史关键信息可以增强模型的理解和回答能力。 该参数需要与工具配合使用,需要填入工具input_schema参数中API的请求参数。例如,在配置AI助手工具的代码示例中,创建预定会议室API的请求参数中有
和内容,更贴近用户的实际需求。这种智能化、个性化的服务体验不仅减少了转人工的频率,还提升了用户满意度。 创意营销 在创意营销领域,企业常常需要投入大量的时间和资源来撰写吸引人的营销文案。然而,传统的人工撰写方式不仅效率低下,还受到写手个人素质的影响。盘古大模型的应用为这一问题提供了创新的解决方案。
不支持变更配置。 欠费 在使用云服务时,如果账户的可用额度低于待结算账单金额,即被判定为账户欠费。欠费可能会影响云服务资源的正常运行,因此需要及时充值。 模型订阅服务和推理服务为预付费,购买后不涉及欠费。 训练服务按实际消耗的Tokens数量计费,当余额不足以支付当前费用时,账户
词设置相同变量值查看效果。 提示词评估 提示词评估以任务维度管理,支持评估任务的创建、查询、修改、删除。支持创建评估任务,选择候选提示词和需要使用的变量数据集,设置评估算法,执行任务自动化对候选提示词生成结果和结果评估。 提示词管理 提示词管理支持用户对满意的候选提示词进行保存管理,同时支持提示词的查询、删除。
String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 用
升了推理速度。在处理请求时,模型能够更快地生成结果,减少等待时间,从而提升用户体验。这种快速的推理能力使盘古大模型适用于广泛的应用场景。在需要实时反馈的业务中,如在线客服和智能推荐,盘古大模型能够迅速提供准确的结果。 迁移能力强 盘古大模型的迁移能力是其适应多变业务需求的关键。除
0之间,值越高说明模型生成和实际答案匹配度越高。 可以作为模型能力的参考指标,当两个模型进行比较时,BLEU指标越大的模型效果一般更好。但是模型的能力还是需要通过人工评测来评判,BLEU指标只能作为参考。 指标的缺陷 BLEU指标只考虑n-gram词的重叠度,不考虑句子的结构和语义。 模型优化建议
至最终输出结论。 Self-instruct Self-instruct是一种将预训练语言模型与指令对齐的方法,允许模型自主生成数据,而不需要大量的人工标注。
险。较小的参数值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容,请避免该值小于10,否则可能生成空值或极差的效果。因此,需要根据不同的场景和需求来选择合适的参数值。 话题重复度控制 用于调整模型对新令牌(Token)的处理方式。即如果一个Token已经在之前的文