检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用”。 您也可以鼠标单击已有应用右上角的,进行应用的复制、删除、复制ID操作。 在“创建应用”窗口中,填写应用名称与应用描述,单击左下角的图片可更换应用图标,单击“确定”,进入应用详情页面。 图1 填写应用名称与应用描述 图2 创建应用 配置Prompt builder,详见配置Prompt
使用盘古预置NLP大模型进行文本对话 场景描述 此示例演示了如何使用盘古能力调测功能与盘古NLP大模型进行对话问答。您将学习如何通过调试模型超参数,实现智能化对话问答功能。 准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型 >
调用盘古NLP大模型API实现文本对话 场景描述 此示例演示了如何调用盘古NLP大模型API实现文本对话功能。您将学习如何通过API接口发送请求,传递对话输入,并接收模型生成的智能回复。通过这一过程,您可以快速集成NLP对话功能,使应用具备自然流畅的交互能力。 准备工作 调用盘古
盘古NLP大模型能力与规格 盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP大模型还具备模型调用等高级特性,可在智能客服、创意
较小的学习率,反之可以使用较大的学习率。 如果您没有专业的调优经验,可以优先使用平台提供的默认值,再结合训练过程中模型的收敛情况动态调整。 学习率衰减比率(learning_rate_decay_ratio) 0~1 0.01~0.1 学习率衰减比率用于设置训练过程中的学习率衰减
decay)的机制,可以有效地防止过拟合(overfitting)的问题。 学习率衰减比率 学习率衰减后的比率,用于控制训练过程中学习率的下降幅度。经过衰减后,学习率的最低值由初始学习率和衰减比率决定。其计算公式为:最低学习率 = 初始学习率 * 学习率衰减比率。也就是说,学习率在每次衰减后不会低于这个计算出来的最低值。
起报时间间隔小时数,默认6。 forecast_lead_hours Long 预报未来小时数,默认168。 draw_figures String 是否输出结果图片,取值true/false,默认true。 forecast_features String 确定性预报的输出要素,例如“Surface:U;1000:T;800:
解,同时具备逻辑推理、代码生成和插件调用等高级功能。 NLP大模型的训练分为两个关键阶段:预训练和微调。 预训练阶段:在这一阶段,模型通过学习大规模通用数据集来掌握语言的基本模式和语义。这一过程为模型提供了处理各种语言任务的基础,如阅读理解、文本生成和情感分析,但它还未能针对特定任务进行优化。
式、自定义格式,可按需进行数据集格式转换。 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要进行数据集格式转换。当前仅文本类、图片类数据集支持转换为盘古格式。 自定义格式:文本类数据集可以使用自定义脚本进行数据格式转换。 父主题: 使用数据工程准备与处理数据集
Long 预报未来小时数,默认168。如需预报未来30天,可将此参数设置成720。 draw_figures 否 String 是否输出结果图片,取值true/false,默认true。 forecast_features 否 String 确定性预报的输出要素,例如“Surface:U;1000:T;800:
或者学习率设置得过大,使得模型在最优解附近震荡,甚至跳过最优解,导致无法收敛。您可以尝试提升数据质量或者减小学习率的方式来解决。 图3 异常的Loss曲线:上升 Loss曲线平缓,保持高位:Loss保持平缓且保持高位不下降的原因可能是由于目标任务的难度较大,或者模型的学习率设置
起报时间间隔小时数,默认6。 forecast_lead_hours Long 预报未来小时数,默认168。 draw_figures String 是否输出结果图片,取值true/false,默认true。 forecast_features String 确定性预报的输出要素,例如“Surface:U;1000:T;800:
概率是由于训练参数设置的不合理而导致了欠拟合,模型没有学到任何知识。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,适当增大“训练轮次”的值,或根据实际情况调整“学习率”的值,帮助模型更好收敛。 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大,则会加剧该现象。
调测评估等特点。 能力扩展:平台可以集成多种插件,插件能够有效扩展Agent的能力边界。、 内置插件:平台集成了各种类型的插件,包含搜索、图片理解等。支持开发者直接将插件添加到Agent中,丰富Agent的能力。 自定义插件:平台支持开发者创建自定义插件。支持开发者将工具、Fun
繁华的城市,人们穿着古代的服饰,用着他听不懂的语言交谈。他意识到自己真的穿越了。李晓在宋朝的生活充满了挑战。他必须学习如何使用新的语言,适应新的生活方式。他开始学习宋朝的礼仪,尝试理解这个时代的文化。在宋朝,李晓遇到了许多有趣的人。他遇到了一位名叫赵敏拿来的小女孩,她聪明伶俐,让
平台支持发布的数据集格式为默认格式、盘古格式,可按需进行数据集格式转换。 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要进行数据集格式转换。当前仅文本类、图片类数据集支持转换为盘古格式。 NLP大模型开发流程 ModelArts Studio大模型开发平台提供了NLP大模型的全流程开发支持,涵盖
进行清洗。 训练参数设置:若数据质量存在问题,且因训练参数设置的不合理而导致过拟合,该现象会更加明显。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,适当降低这些参数的值,降低过拟合的风险。 推理参数设置:请检查推理参数中的“温度”或“核采样”等参数的设置,适当减小其中
大模型微调训练类问题 无监督领域知识数据量无法支持增量预训练,如何进行模型学习 如何调整训练参数,使盘古大模型效果最优 如何判断盘古大模型训练状态是否正常 如何评估微调后的盘古大模型是否正常 如何调整推理参数,使盘古大模型效果最优 为什么微调后的盘古大模型总是重复相同的回答 为什么微调后的盘古大模型的回答中会出现乱码
训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了过拟合。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,适当降低这些参数的值,降低过拟合的风险。 数据质量:请检查训练数据的质量,若训练样本出现了大量重复数据,或者数据多样性很差,则会加剧该现象。
forecast_lead_hours 否 Long 预报未来小时数,默认168。 draw_figures 否 String 是否输出结果图片,取值true/false,默认true。 forecast_features 否 String 确定性预报的输出要素,例如“Surface:U;1000:T;800: