检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据工程工具链 数据是大模型训练的基础,为大模型提供了必要的知识和信息。数据工程工具链作为盘古大模型服务的重要组成部分,具备数据获取、清洗、配比和管理等功能。 该工具链能够高效收集和处理各种格式的数据,满足不同训练和评测任务的需求。
该工具链能够高效收集和处理各种格式的数据,满足不同训练和评测任务的需求。通过提供自动化的质量检测和数据清洗能力,对原始数据进行优化,确保其质量和一致性。同时,数据工程工具链还提供强大的数据存储和管理能力,为大模型训练提供高质量的数据支撑。
人工评测:您可以采用人工评测的方式,参照目标任务构造评测集,通过横向或纵向评估评测集的方式来验证模型效果。 父主题: 大模型微调训练类问题
上线加工后的文本类数据集 标注数据集(可选) 创建文本类数据集标注任务 创建数据集标注任务,对数据集执行标注操作,标注后的数据可以用于模型训练或评测。
产品优势 预置多,数据工程“易” ModelArts Studio大模型开发平台预置多种数据处理AI算子,多种标注工具,满足用户多任务多场景需求,提高开发/标注效率>10X。
图3 数据工程使用流程图 表3 数据工程使用流程表 流程 子流程 说明 导入数据至盘古平台 创建原始数据集 数据集是指用于模型训练或评测的一组相关数据样本,上传至平台的数据将被创建为原始数据集进行统一管理。 上线原始数据集 在正式发布数据集前,需要执行上线操作。
在评估提示词效果时,可以通过批量替换{{location}}的值,来获得模型回答,提升评测效率。 同时,撰写提示词过程中,可以通过设置模型参数来控制模型的生成行为,如调整温度、核采样、最大Token限制等参数。
上线加工后的文本类数据集 发布数据集 创建气象类数据集发布任务 创建发布数据集,并进行正式的发布操作,用于后续的训练、评测任务。 发布气象类数据集 父主题: 开发盘古科学计算大模型
盘古大模型能力通过ModelArts Studio大模型开发平台承载,它提供了包括盘古大模型在内的多种大模型服务,提供覆盖全生命周期的大模型工具链。
图1 数据集准备与处理流程图 表1 数据集准备与处理流程表 流程 子流程 说明 导入数据至盘古平台 创建原始数据集 数据集是指用于模型训练或评测的一组相关数据样本,上传至平台的数据将被创建为原始数据集进行统一管理。 上线原始数据集 在正式发布数据集前,需要执行上线操作。
Token计算器 功能介绍 为了帮助用户更好地管理和优化Token消耗,平台提供了Token计算器工具。Token计算器可以帮助用户在模型推理前评估文本的Token数量,提供费用预估,并优化数据预处理策略。
不同模型在预训练、微调、模型评测、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。
“盘古格式”为使用盘古大模型训练或评测时所需要使用的数据格式。 “自定义格式”可以通过自定义格式转换脚本,将数据集转化为适用于其他模型的格式。例如盘古数据集中,context、target字段分别表示问题和答案。
“盘古格式”为使用盘古大模型训练或评测时所需要使用的数据格式。 “自定义格式”可以通过自定义格式转换脚本,将数据集转化为适用于其他模型的格式。例如盘古数据集中,context、target字段分别表示问题和答案。
待评测数据不存在,请检查数据是否导入成功,OBS桶是否为空。 obs url invalid. 请检查数据集对应的OBS路径是否有效,是否可正常访问。 standard item not exist. 请检查评估标准是否存在,是否被删除。
不同模型在预训练、微调、模型评测、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。
模型训练:在模型开发的第一步,ModelArts Studio大模型开发平台为用户提供了丰富的训练工具与灵活的配置选项。用户可以根据实际需求选择合适的模型架构,并结合不同的训练数据进行精细化训练。平台支持分布式训练,能够处理大规模数据集,从而帮助用户快速提升模型性能。
数据集的加工算子是一种灵活的数据预处理工具,能够帮助您将原始数据转化为所需的格式。通过使用加工算子,您可以提取、转换、过滤原始数据,生成适合大模型训练的数据集。 准备工作 请提前准备数据并上传至OBS服务,上传步骤请详见通过控制台快速使用OBS。
平台还提供全链路信息观测和调试工具,支持开发者深入分析Agent执行过程中的每个环节。通过对信息进行分层展示,帮助开发者优化AI应用的性能和稳定性,确保应用在不同环境下的顺畅运行。
若评测过程中出现如下问题,可以参考解决方案进行优化: 问题一:模型答案没有按照Prompt要求回答。例如,要求文案在300字以内,但是模型回答字数仍然超出300字。 解决方案:在数据质量要求中提到要求训练数据的输出(target字段)需要符合业务场景需求。