检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
气象/降水模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
准备工作 申请试用盘古大模型服务 订购盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型
训练CV大模型 CV大模型训练流程与选择建议 创建CV大模型训练任务 查看CV大模型训练状态与指标 发布训练后的CV大模型 管理CV大模型训练任务 CV大模型训练常见报错与解决方案 父主题: 开发盘古CV大模型
训练预测大模型 预测大模型训练流程与选择建议 创建预测大模型训练任务 查看预测大模型训练状态与指标 发布训练后的预测大模型 管理预测大模型训练任务 预测大模型训练常见报错与解决方案 父主题: 开发盘古预测大模型
训练NLP大模型 NLP大模型训练流程与选择建议 创建NLP大模型训练任务 查看NLP大模型训练状态与指标 发布训练后的NLP大模型 管理NLP大模型训练任务 NLP大模型训练常见报错与解决方案 父主题: 开发盘古NLP大模型
训练科学计算大模型 科学计算大模型训练流程与选择建议 创建科学计算大模型训练任务 查看科学计算大模型训练状态与指标 发布训练后的科学计算大模型 管理科学计算大模型训练任务 科学计算大模型训练常见报错与解决方案 父主题: 开发盘古科学计算大模型
当您调用API时,如果遇到“APIGW”开头的错误码,请参见API网关错误码进行处理。遇到“APIG”开头的错误码,请参考本文档进行处理。 表1 错误码 错误码 错误信息 说明 建议解决方法 PANGU.0001 unknown error. 未知错误。 请联系服务技术支持协助解决。
surface_features:海表特征变量列表,例如海表高度(SSH)、温度(T)、风速(U、V)。 under_sea_layers:深海层列表,例如500m、400mPa等。 under_sea_features:高空特征变量列表,例如海盐(S)、温度(T)、海流速率(U、V)。
Gallery。 数据资产列表页将显示发布数据资产的状态: 如果状态为“发布中”,表示该资产正在同步至AI Gallery,请耐心等待。 如果状态为“发布成功”,表示该资产已同步至AI Gallery,可单击操作列“查看发布信息”以查看该资产的发布信息。 如果状态为“发布失败”,表示该资产未成功同步至AI
、平衡性和代表性需求,并促进数据的高效流通与应用。 数据评估:数据评估通过对数据集进行系统的质量检查,依据评估标准评估数据的多个维度,旨在发现潜在问题并加以解决。 数据配比:将多个数据集按照特定比例关系组合并发布为“发布数据集”的过程,确保数据的多样性、平衡性和代表性。 数据流通
练。通过数据加工,用户能够快速构建高质量的数据集,推动大模型的成功开发。 支持数据加工的数据集类型 当前支持数据加工操作的数据集类型见表1。 表1 支持数据加工操作的数据集类型 数据类型 数据清洗 数据合成 数据标注 文本类 √ √ √ 图片类 √ - √ 视频类 √ - √ 气象类
包周期计费模式属于预付费模式,即先付费再使用。按需计费模式属于后付费模式,即费用根据服务实际消耗量计费,系统将每小时自动扣费。 盘古大模型的计费模式见表1。 表1 计费模式表 计费类别 计费项 计费模式 计费量纲 付费方式 计费周期 模型服务 模型订阅服务 包周期计费 套 预付费,按照订单的购买周期结算
数据保护技术 盘古大模型服务通过多种数据保护手段和特性,保障存储在服务中的数据安全可靠。 表1 盘古大模型的数据保护手段和特性 数据保护手段 简要说明 传输加密(HTTPS) 盘古服务使用HTTPS传输协议保证数据传输的安全性。 基于OBS提供的数据保护 基于OBS服务对用户的数
默认值为false,如果开启搜索增强,请赋值为true。 表4 moderation_config 参数 参数类型 描述 black_glossary_names String 黑名单词库列表。 white_glossary_names String 白名单词库列表。 question_moderation
为什么微调后的盘古大模型评估结果很好,但实际场景表现很差 当您在微调过程中,发现模型评估的结果很好,一旦将微调的模型部署以后,输入一个与目标任务同属的问题,回答的结果却不理想。这种情况可能是由于以下几个原因导致的,建议您依次排查: 测试集质量:请检查测试集的目标任务和分布与实际场
为什么微调后的盘古大模型只能回答训练样本中的问题 为什么在微调后的盘古大模型中输入训练样本问题,回答完全不同 为什么微调后的盘古大模型评估结果很好,但实际场景表现很差 为什么多轮问答场景的盘古大模型微调效果不好 数据量足够,为什么盘古大模型微调效果仍然不好 数据量和质量均满足要求,为什么盘古大模型微调效果不好
以提高训练效率。如果规模较大,那么可能需要较小的学习率和较小的批量大小,防止内存溢出。 这里提供了一些微调参数的建议值和说明,供您参考: 表1 微调参数的建议和说明 训练参数 范围 建议值 说明 训练轮数(epoch) 1~50 2/4/8/10 训练轮数是指需要完成全量训练数据
学习。 这里提供了一些将无监督数据转换为有监督数据的方案,供您参考: 基于规则构建:您可以通过采用一些简单的规则来构建有监督数据。比如: 表1 采用规则将无监督数据构建为有监督数据的常用方法 规则场景 说明 文本生成:根据标题、关键词、简介生成段落。 若您的无监督文档中含标题、关
/caltokens 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型部署ID。 请求参数 表2 请求Header参数