检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
无监督领域知识数据量无法支持增量预训练,如何进行模型学习 一般来说,建议采用增量预训练的方式让模型学习领域知识,但预训练对数据量的要求较大,如果您的无监督文档量级过小,达不到预训练要求,您可以通过一些手段将其转换为有监督数据,再将转换后的领域知识与目标任务数据混合,使用微调的方式让模型学习。
理想。这种情况可能是由于以下几个原因导致的,建议您依次排查: 测试集质量:请检查测试集的目标任务和分布与实际场景是否一致,质量较差的测试集无法反映模型的真实结果。 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大,则会加剧该现象。此外,若可预见实际场景会
原始对话示例: A:xxx号话务员为您服务! A:先生您好,有什么可以帮助您的? B:你好,是这样的 B:我家里上不了网了 B:网连不上 A:先生,您家的网络无法连接是吗 A:请问您尝试重新插拔网线吗? B:是的,我试了 B:还是不行 拼接后的微调数据格式示例: {"context":
大模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古大模型效果最优 如何判断盘古大模型训练状态是否正常 如何评估微调后的盘古大模型是否正常 如何调整推理参数,使盘古大模型效果最优 为什么微调后的盘古大模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码
导入数据过程中,为什么无法选中OBS的具体文件进行上传 在数据导入过程中,平台仅支持通过OBS服务导入文件夹类型的数据,而不支持直接导入单个文件。 您需要将文件整理到文件夹中,并选择该文件夹进行上传。 父主题: 大模型使用类问题
跳过最优解,导致无法收敛。您可以尝试提升数据质量或者减小学习率的方式来解决。 图3 异常的Loss曲线:上升 Loss曲线平缓,保持高位:Loss保持平缓且保持高位不下降的原因可能是由于目标任务的难度较大,或者模型的学习率设置得过小,导致模型的收敛速度太慢,无法达到最优解。您可以
101531 结束节点初始化失败。 检查结束节点配置,可能为校验报错。 101532 结束节点模板拼接失败。 先检查模板占位符与输入是否匹配,请联系客服解决。 101533 结束节点流式处理失败。 请联系客服解决。 大模型节点 101561 大模型节点初始化失败。 检查大模型节点配置,可能为校验报错。
根据盘古大模型特点调整提示词。 直接使用在其他大模型上有效的提示词,可能无法在盘古大模型上获得相同的效果。为了充分发挥盘古大模型的潜力,建议根据盘古大模型的特点,单独调整提示词。直接使用在其他大模型上有效的提示词,可能无法在盘古大模型上获得相同的效果。为了充分发挥盘古大模型的潜力,建议根据盘古大模型的特点,单独调整提示词。
大模型使用类问题 盘古大模型是否可以自定义人设 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的具体文件进行上传 如何查看预置模型的历史版本
需支付从进入保留期开始至续费时的费用。 账户欠费后,部分操作将受限,建议您尽快续费。具体受限操作如下: 按需方式的API接口不可调用。 无法开通服务。
调用API有两种认证方式,包括Token认证和AppCode认证。其中,AppCode认证的使用场景为当用户部署的API服务期望开放给其他用户调用时,原有Token认证无法支持,可通过AppCode认证调用请求。 参考表1填写请求Header参数。 表1 请求Header参数填写说明 认证方式 参数名 参数值
调用API有两种认证方式,包括Token认证和AppCode认证。其中,AppCode认证的使用场景为当用户部署的API服务期望开放给其他用户调用时,原有Token认证无法支持,可通过AppCode认证调用请求。 参考表2填写请求Header参数。 表2 请求Header参数填写说明 认证方式 参数名 参数值
由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。 414 Request URI Too Long 请求的URI过长(URI通常为网址),服务器无法处理。 415 Unsupported
典型问题如下: 问题一:文本翻译插件运行失败,报错信息如图1。 图1 文本翻译插件运行失败 可能原因:调用文本翻译API的Token错误或失效。 解决方法:参考创建多语言文本翻译插件,重新获取Token并进行试运行。 问题二:文本翻译失败,如图2,工作流不输出翻译后的内容,始终处于提问状态。
权。 Token认证:通过Token认证调用请求。 AppCode认证:当用户部署的API服务期望开放给其他用户调用时,原有Token认证无法支持,可通过AppCode认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。
按需计费模式下,若账户欠费,保留期时长同样依据“客户等级”定义。在保留期内的资源处理和费用请参见“保留期”。 如果保留期结束后仍未续订或充值,数据将被删除且无法恢复。
fail:token解析失败。 token expires:token过期。 verify aksk signature fail:AK/SK认证失败。 x-auth-token not found:未找到x-auth-token参数。 token解析失败,请检查获取token的
进行选择。 高级设置 checkpoints:在模型训练过程中,用于保存模型权重和状态的机制。 关闭:关闭后不保存checkpoints,无法基于checkpoints执行续训操作。 自动:自动保存训练过程中的所有checkpoints。 自定义:根据设置保存指定数量的checkpoints。
因此在购买之前,您必须确保账户余额充足。 按需计费是一种后付费模式,即先使用再付费,按照实际使用时长计费。 在购买后,如果发现当前计费模式无法满足业务需求,您还可以变更计费模式。详细介绍请参见变更计费模式。 计费项 盘古大模型的计费项由模型订阅、数据资源、训练资源和推理资源费用组
需要站在模型的角度理解相关任务的真实底层任务,并清晰描述任务要求。 例如,在文档问答任务中,任务本质不是生成,而是抽取任务,需要让模型“从文档中抽取出问题的答案,不能是主观的理解或解释,不能修改原文的任何符号、字词和格式”, 如果使用“请阅读上述文档,并生成以下问题答案”,“生成”一词不是很恰当,模型会引入一些外部知识。