检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参考数据配比功能介绍。 在训练数据集配比完成后,在单击“创建”或后续修改保存时,会对数据集的有效数据进行统计,确保满足模型训练的要求。 图3 数据配置 基本配置 填写训练数据集名称和描述,选择数据标签。 图4 基本配置 参数填选完成后,单击“立即创建”。 数据配比功能介绍 用户针
配置知识库 大模型在进行训练时,使用的是通用的数据集,这些数据集没有包含特定行业的数据。通过知识库功能,用户可以将领域知识上传到知识库中,向大模型提问时,大模型将会结合知识库中的内容进行回答,解决特定领域问题回答不准的现象。 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发
模型评估 模型压缩 在线推理 盘古-NLP-N1-基础功能模型-32K - √ - √ √ 盘古-NLP-N2-基础功能模型-4K - √ √ √ √ 盘古-NLP-N2-基础功能模型-32K - √ √ - √ 盘古-NLP-N4-基础功能模型-4K - √ - √ √ 盘古-NLP-BI专业大模型-4K
期的大模型工具链。 盘古大模型为开发者提供了一种简单高效的方式来开发和部署大模型。通过数据工程、模型开发和应用开发等功能套件,帮助开发者充分发挥盘古大模型的强大功能。企业可根据自身需求选择合适的大模型相关服务和产品,轻松构建自己的模型。 数据工程套件 数据是大模型训练的基础,为大
token比(token/汉字) N1系列模型 0.75 1.5 N2系列模型(不包含盘古-NLP-N2-基础功能模型-4K-Preview) 0.88 1.24 盘古-NLP-N2-基础功能模型-4K-Preview 0.86 1.69 N3系列模型 0.77 1 N4系列模型 0.75 1
Memory(记忆) Memory(记忆)模块结合外部存储为LLM应用提供长短期记忆功能,用于支持上下文记忆的对话、搜索增强等场景。 Memory(记忆)支持多种不同的存储方式和功能。 Cache缓存:是一种临时存储数据的方法,它可以提高数据的访问速度和效率。缓存可以根据不同的存
畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(多轮对话)(/chat/completions) Java、Python、Go、.NET、NodeJs 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 通用文本(
清洗数据集(可选) 清洗算子功能介绍 获取数据清洗模板 创建数据集清洗任务 父主题: 准备盘古大模型训练数据集
文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。例如,让模型依据要求写邮件、做摘要总结、生成观点见解等。 多轮对话:基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 图1 使用能力调测 表1 能力调测参数说明 参数 说明 温度 用于控制生成文本的多样性和创造力。
一个规格的基础功能模型)来获取目标场景的数据,以此扩充您的数据集。为了能获取更高质量的数据,可以通过CoT(思维链)、self-instruct等方式批量调用大模型,来获取满足您要求的数据。 人工标注:如果以上两种方案均无法满足您的要求,您也可以使用“数据标注”功能,采用人工标注方式来获取数据。
提示词工程使用流程 盘古大模型套件平台可以辅助用户进行提示词设计、调优、比较和对提示词通用性进行自动评估等功能,并对调优得到的提示词进行保存和管理。 表1 功能说明 功能 说明 提示用例管理 提示用例集用于维护多组提示词变量的信息,可以用于提示词的调优、比较和评估。 支持对用例集的创建、查询、修改、删除。
数据则帮助模型更好地应对各种情况。因此,数据的收集和处理是大模型训练中的关键环节。 盘古大模型套件平台通过提供数据获取、清洗、配比与管理等功能,确保构建高质量的训练数据。 父主题: 准备盘古大模型训练数据集
输入变量值后预览区域会自动组装展示提示词。用户也可以直接选择已创建的变量集填入变量值信息,变量集是一个excel文件,每行数据是需要输入的变量值信息,可以通过“导入”功能进行上传。 图1 预览提示词效果 单击“查看效果”按钮,输出模型回复结果,用户可以根据预览效果调整提示词的文本和变量。 父主题: 撰写提示词
登录盘古大模型套件平台,在左侧导航栏中选择“能力调测”。 单击“多轮对话”页签,选择使用N2系列模型,在页面右侧“参数设置”中可以开启搜索增强功能。 图1 体验搜索增强能力
登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,单击“开启内容审核”,进行授权。 图1 内容审核授权 购买内容审核套餐包,使用“文本补全”、“多轮对话”功能时需要购买“文本内容审核”套餐包。 图2 购买内容审核套餐包 父主题: 调用盘古大模型
中控模块:盘古-NLP-N1-基础功能模型 说明:该模块需要实现意图识别分类的功能。当输入意图识别模块的是政务问题时,控制下游调用检索模块;当输入不需要调用检索的非政务问题时,不调用检索,直接模型回答问题。实现方法为通过微调获得一个具有二分类能力的模型。 问答模块:盘古-NLP-N2-基础功能模型 说明
ken的审核时延,同时确保用户看到的内容是经过严格审核的。 图3 大模型内容审核 购买内容审核套餐包时,如果使用“文本补全”和“多轮对话”功能,需要选择“文本内容审核”套餐。 父主题: 准备工作
Memory(记忆)模块结合外部存储为LLM应用提供长短期记忆能力,用于支持上下文记忆的对话、搜索增强等场景。 Memory(记忆)支持多种不同的存储方式和功能。 Cache缓存:是一种临时存储数据的方法,它可以提高数据的访问速度和效率。缓存可以根据不同的存储方式进行初始化、更新、查找和清理操作。
(比如盘古提供的任意一个规格的基础功能模型)来获取目标场景的数据,以此提升数据质量。一个比较常见的方法是,将微调数据以及数据评估标准输入给模型,让模型来评估数据的优劣。 人工标注:如果以上两种方案均无法满足您的要求,您也可以使用“数据标注”功能,采用人工标注方式来清洗数据。 父主题:
Token计算器 功能介绍 为了帮助用户更好地管理和优化Token消耗,平台提供了Token计算器工具。Token计算器可以帮助用户在模型推理前评估文本的Token数量,提供费用预估,并优化数据预处理策略。 URI POST /v1/{project_id}/deployment