检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古预测大模型支持的具体操作: 模型 预训练 微调 模型评测 模型压缩 在线推理 能力调测
数据量足够,为什么盘古大模型微调效果仍然不好 这种情况可能是由于以下原因导致的,建议您排查: 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大、样本中存在异常数据、样本的多样性较差,都将影响模型训练的效果,建议提升您的数据质量。 父主题: 大模型微调训练类问题
面进行检索优化。如果检索内容正确,但模型回复不符合预期,则应考虑优化微调数据并重新训练模型。 问题二:针对特定问题,问答场景模型可以较好地回复内容,但对闲聊场景,模型的回复很差。 解决方案:这里有可能有两方面的原因:一方面是问答模块对应的模型的通用能力较差,另一方面是中控模块执行
在实际流程中,通过设定训练指标对模型进行监控,以确保效果符合预期。在微调后,评估用户模型,并进行最终优化,确认其满足业务需求后,进行部署和调用,以便实际应用。 科学计算大模型选择建议 科学计算大模型支持训练的模型类型有:全球中期天气要素模型、降水模型、区域中期海洋智能预测模型。 全球中期天气要素预测模型、降水模型选择建议:
在“创建训练任务”页面,参考表1完成训练参数设置。 表1 NLP大模型预训练参数说明 参数分类 训练参数 参数说明 训练配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 训练类型 选择“预训练”。 基础模型 选择预训练所需的基础模型,可从“已发布模型”或“未发布模型”中进行选择。 高级设置 ch
科技行业公司的总利润和市值是多少? … 来源四:基于大模型的数据泛化。基于目标场任务的分析,通过人工标注部分数据样例,再基于大模型(比如盘古提供的任意一个规格的基础功能模型)采用self-instruct等方式泛化出更多的业务场景数据。示例如下: 大模型输入: 请改写命令案例,生成10个相似命
管理NLP大模型部署任务 模型更新 完成创建NLP大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
管理CV大模型部署任务 模型更新 完成创建CV大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
管理预测大模型部署任务 模型更新 完成创建预测大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
管理专业大模型部署任务 模型更新 完成创建专业大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
户能够统一管理数据集资源,以便在模型训练和分析时灵活调用,确保数据资产的规范性与安全性。 模型资产:平台提供的模型资产涵盖了预置或训练后发布的模型,所有这些模型将存放于空间资产中进行统一管理。用户可查看预置模型的历史版本和操作记录,还可以执行模型的进一步操作,包括训练、压缩、部署
“训练轮次”或“学习率”等参数的设置,根据实际情况调整训练参数,帮助模型更好学习。 Prompt设置:请检查您使用的Prompt,对于同一个目标任务,建议在推理阶段使用和训练数据相同或相似的PROMPT,才能发挥出模型的最佳效果。 模型规格:理论上模型的参数规模越大,模型能学到的知识就越多,能学会的知识就更难
在“创建部署”页面,参考表1完成部署参数设置。 表1 CV大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“CV大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安
在“创建部署”页面,参考表1完成部署参数设置。 表1 NlP大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。 安全护栏
表1 CV大模型微调参数说明 参数分类 训练参数 说明 训练配置 模型来源 选择“盘古大模型”。 模型类型 选择“CV大模型”。 训练类型 选择“微调”。 基础模型 选择所需微调的基础模型。 训练参数 数据集 训练数据集。 自定义L1预训练模型目录 自定义预训练模型所在的OBS路径。
参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“专业大模型 > BI专业大模型”或“专业大模型 > 搜索专业大模型”。 部署模型 在“从资产选模型”选择所需模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型
Gallery中订阅数据资产的功能。AI Gallery提供了模型、数据集、AI应用等AI数字资产的共享,为企业级或个人开发者等群体,提供安全、开放的共享及交易环节。 发布数据资产至AI Gallery 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。
准备工作 请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。 操作流程 使用盘古NLP大模型创建Python编码应用的流程见表1。 表1 用盘古NLP大模型创建Python编码应用 操作步骤
在“创建部署”页面,参考表1完成部署参数设置。 表1 预测大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“预测大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安
开发盘古NLP大模型 训练NLP大模型 进行模型的训练,如预训练、微调训练方式。 训练NLP大模型 压缩NLP大模型 通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。 压缩NLP大模型 部署NLP大模型 将模型部署用于后续模型的调用操作。 部署NLP大模型 评测NLP大模型