检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
练任务。 克隆。单击操作列的“更多 > 克隆”,可以复制当前训练任务。 重试。单击操作列的“更多 > 重试”,可以编辑运行失败的节点,重试该节点的训练。 删除。单击操作列的“更多 > 删除”,可以删除当前不需要的训练任务。 删除属于高危操作,删除前请确保当前任务不再需要。 父主题:
预置模型。 用户在平台中可试用、已订购的预置模型。 用户自行发布的模型。 用户可以将训练完成的模型发布为模型资产。发布的模型支持查看详细信息、编辑属性、删除、导出、导入等操作。 管理模型资产 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“空间资产
模型选择 选择已部署的模型。 核采样 模型在输出时会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到核采样值,核采样值可以限制模型选择这些高概率的词汇,从而控制输出内容的多样性。建议不要与温度同时调整。 温度 用于控制生成结果的随机性。调高温度,会使得模型的输出更具多样性和创
在“导出应用”页面选择应用,单击“导出”。应用将以一个jsonl格式的文件下载至本地。 导入应用。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。 平台将自动解析jsonl文件。如果解析的文件在平台中已存在,勾选该文件将自动覆盖平台现有文件。
合成文本类数据集 利用预置或自定义的数据指令对原始数据进行处理,并根据设定的轮数生成新数据。该过程能够在一定程度上扩展数据集,增强训练模型的多样性和泛化能力。 合成文本类数据集 标注文本类数据集 为无标签数据集添加准确的标签,确保模型训练所需的高质量数据。平台支持人工标注和AI预
Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“Agent开发”,跳转至Agent开发平台。 进入“工作台 > 知识库”页面。 单击“ > 复制ID”,可获取当前知识库ID。 单击“ > 删除”,可删除当前知识库。 删除应用属于高危操作,删除前,请确保该知识库不再使用。
单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。 平台将自动解析jsonl文件。如果解析的文件在平台中已存在,勾选该文件将自动覆盖平台现有文件。 单击“导入”,导入成功的插件将在“工作台 > 插件”页面中展示。 父主题: 创建与管理插件
提示词工程是一项将知识、技巧和直觉结合的工作,需要通过不断实践实现模型输出效果的提升。提示词和模型之间存在着密切关系,本指南结合了大模型通用的提示工程技巧以及盘古大模型的调优实践经验,总结的一些技巧和方法更为适合基于盘古大模型的提示工程。 本文的方法论及技巧部分使用了较为简单的任务作为示例,以便简
提升数据治理的效率和效果。 通过整合上述功能,数据工程在AI研发中不仅帮助用户高效构建高质量的训练数据集,还通过全流程的数据处理和管理,探索数据与模型性能的内在联系,为模型训练和应用提供坚实的数据基础,推动了模型的精确训练与持续优化,提升了AI应用开发的效率和成果的可靠性。 父主题:
Gallery”页签,可对从AI Gallery订阅的数据资产执行以下操作: 查看订阅信息。单击具体数据资产或操作列的“查看订阅信息”,查看该资产的名称描述等订阅信息。 编辑属性操作。单击操作列的“更多 > 编辑属性”,可编辑数据资产的名称、描述以及资产可见性。 删除操作。单击操作列的“更多 > 删除”,可删除当前数据资产。
删除”,可删除当前工作流。 删除应用属于高危操作,删除前,请确保该工作流不再使用。 导出、导入工作流 平台支持导出和导入工作流。导出工作流时,将同步导出工作流关联的插件等配置。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择
本节介绍盘古大模型服务在使用过程中的约束和限制。 规格限制 盘古大模型服务的规格限制详见表1。 表1 规格限制 资产、资源类型 规格 说明 模型资产、数据资源、训练资源、推理资源 所有按需计费、包年/包月中的模型资产、数据资源、训练资源、推理资源。 购买的所有类型的资产与资源仅支持在西南-贵阳一区域使用。
原始数据集进行处理,并根据设定的轮数生成新的数据。 数据标注:数据标注旨在为无标签的数据集添加准确的标签,标注数据的质量直接影响模型的训练效果和精度。针对不同数据集平台支持人工标注与AI预标注两种形式。 其中,图片Caption、视频Caption标注项支持AI预标注功能。 通过
ERA5是由欧洲中期天气预报中心(ECMWF)提供的全球气候的第五代大气再分析数据集,它覆盖从1940年1月至今的时间段,提供每小时的大气、陆地和海洋气候变量的估计值。 ERA5数据下载官方指导:https://confluence.ecmwf.int/display/CKB/
类型、值:选择“引用 > query”。query为开始节点的输出变量值。 在“模型配置”中,选择模型并进行参数配置。 在“意图配置”中,填写场景意图。 其中,意图的内容为针对该场景的描述语句或关键词,同时也将作为大模型进行推理和分类的依据,数量为2 ~ 5个。 在“高级配置”中配置提示词。单击“确定”,完成参数配置。
高。 API Key鉴权:通过唯一的API Key来认证应用之间的访问权限,可以使用Header鉴权或Query鉴权的方式,需要提供密钥鉴权参数名和密钥值,安全性较低。 请求头 插件服务的请求头。添加请求的数据格式等说明,敏感信息请通过权限校验的方式实现。 自定义插件使用HTTP
学习率决定每次训练中模型参数更新的幅度。 选择合适的学习率至关重要: 如果学习率过大,模型可能无法收敛。 如果学习率过小,模型的收敛速度将变得非常慢。 训练轮数 表示完成全部训练数据集训练的次数。每个轮次都会遍历整个数据集一次。 Lora矩阵的轶 较高的取值意味着更多的参数被更新,模型具有更大的灵活性,
用任务的基础能力,但还没有针对特定的业务场景进行优化。预训练后的模型主要用于多个任务的底层支持。 通过使用海量的互联网文本语料对模型进行预训练,使模型理解人类语言的基本结构。 微调 关注专业性:微调是对预训练模型的参数进行调整,使其在特定任务中达到更高的精度和效果。微调的核心在于
其中,各参数介绍如下: 变量取值:输入参数的各个变量取值。取值可以是数据集中的字段变量,也可以自定义变量值。 保存至任务输出参数(可选):该参数为输出的结果。由于输出结果为问答对形式,因此生成的问题必须选择context参数,回答必须选择target参数。 模型选择:选择平台预置的大模型,用于指令合成。
t来进行相关中控逻辑的判断,一般情况下能够满足绝大部分场景的需求。如果针对特别细分的垂域场景,且需要中控逻辑能够取得接近100%准确率的效果,则可以按照需求可以准备对应的中控分类数据。以简单的二分类场景为例,但中控逻辑可以非常复杂,可扩展到多场景分类。二分类的数据示例如下: {"context