检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
的预测。 中期天气要素模型包括6h分辨率模型,即以起报时刻开始,可以逐6h往后进行降水情况的预测。 结果存储路径 用于存放模型推理结果的OBS路径。 输入数据 支持选择用于存放作为初始场数据的文件路径。 预报天数 支持选择以起报时间点为开始,对天气要素或降水进行预报的天数,范围为1~14天。
路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型部署ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述
通过访问密钥(AK/SK)认证方式进行认证鉴权,即使用Access Key ID(AK)/Secret Access Key(SK)加密的方法来验证某个请求发送者身份。 父主题: 安全
导入任务”,单击界面右上角“创建导入任务”。 数据集类型选择“气象 > 气象数据”,导入来源选择“OBS”,单击“”,在“存储位置”中选择微调数据所在的OBS路径后,单击“确定”。 图2 从OBS中导入微调数据集文件 填写“数据集名称”和“描述”。 单击页面右下角“立即创建”,回退至“导
误码,请参见API网关错误码进行处理。遇到“APIG”开头的错误码,请参考本文档进行处理。 表1 错误码 错误码 错误信息 说明 建议解决方法 PANGU.0001 unknown error. 未知错误。 请联系服务技术支持协助解决。 PANGU.0010 parameter illegal
场景表现很差 数据量足够,为什么盘古大模型微调效果仍然不好 大模型使用类问题 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的单个文件进行上传 训练/推理单元与算力的对应关系是什么 提示词工程类 如何让大模型按指定风格或格式回复 为什么其他大模型适用的提示词在盘古大模型上效果不佳
据的方案,供您参考: 基于规则构建:您可以通过采用一些简单的规则来构建有监督数据。比如: 表1 采用规则将无监督数据构建为有监督数据的常用方法 规则场景 说明 文本生成:根据标题、关键词、简介生成段落。 若您的无监督文档中含标题、关键词、简介等结构化信息,可以将有监督的问题设置为
科学计算大模型的学习率调优策略如下: 学习率太小时,损失曲线几乎是一条水平线,下降非常缓慢,此时可以增大学习率,使用学习率预热(Warm-up)的方法,在训练初期逐步增加学习率,避免初始阶段学习率过小。 学习率太大时,损失曲线剧烈震荡,甚至出现梯度爆炸的问题,可以使用学习率衰减(Deca
考》文档。 { "name": "test-task624", "input": { "type": "obs", "data": [ { "bucket": "pangu-weather-data"
Information 非授权信息,请求成功。 204 No Content 请求完全成功,同时HTTP响应不包含响应体。 在响应OPTIONS方法的HTTP请求时返回此状态码。 205 Reset Content 重置内容,服务器处理成功。 206 Partial Content 服务器成功处理了部分GET请求。
> 本空间”页面,单击支持导出的模型名称,右上角的“导出模型”。 在“导出模型”页面,选择需要导出的模型,应设置导出模型时对应的导出位置(OBS桶地址),添加从环境B中下载的用户证书。设置完成后单击“确定”导出模型。 图2 导出模型 导入其他局点盘古大模型 导入盘古大模型前,请确保当前空间为该用户所创建的空间。
在“调用路径”页面,单击“复制路径”即可获取调用路径。 其中,conversation_id参数为会话ID,唯一标识每个会话的标识符,可将会话ID设置为任意值,使用标准UUID格式。 图2 获取应用调用路径-2 使用Postman调用API 获取Token。参考《API参考》文档“如何调用REST API
选择“NLP大模型”。 训练类型 选择“微调”。 训练目标 选择“全量微调”。 全量微调:在模型进行有监督微调时,对大模型的所有参数进行更新。这种方法通常能够实现最佳的模型性能,但需要消耗大量计算资源和时间,计算开销较大。 基础模型 选择全量微调所用的基础模型, 可从“已发布模型”或“未发布模型”中进行选择。
参照表6,完成判断节点的配置。 表6 判断节点配置说明 配置类型 参数名称 参数说明 参数配置 IF IF分支由[参数名称 比较条件 比较对象 值]组成一条件表达式。 参数名称:条件表达式左边部分,需要选择来自前序节点的输出参数。 比较条件:条件表达式中间部分,当前支持的比较条件
说明:该模块需要实现意图识别分类的功能。当输入意图识别模块的是政务问题时,控制下游调用检索模块;当输入不需要调用检索的非政务问题时,不调用检索,直接模型回答问题。实现方法为通过微调获得一个具有二分类能力的模型。 问答模块:盘古-NLP-N2-基础功能模型 说明:该模块需要具备多轮对话能力和阅读理解能力。当前
好。 最小值:0 最大值:1 缺省值:N1模型 0.4,N2模型 0.3,N4模型 0.3 top_p 否 Float 一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p概率质量的标记的结果。 取值范围:(0, 1] 缺省值:N1模型 0.7,N2模型
理精度,则全量微调是优先选择。 LoRA微调:适用于数据量较小、侧重通用任务的情境。LoRA(Low-Rank Adaptation)微调方法通过调整模型的少量参数,以低资源实现较优结果,适合聚焦于领域通用任务或小样本数据情境。例如,在针对通用客服问答的场景中,样本量少且任务场景
g/dlug_installation_001.html 步骤4:创建证书 如图7,如果在“边缘资源池”页签提示无可用的证书,可以参考以下方法创建证书。 图7 无可用证书 准备一台Linux系统的服务器(已安装OpenSSL),依次执行以下命令制作证书。 执行命令时会提示输入至少