检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开启后,系统将在本次压缩任务状态变更时,向用户发送短信/邮件提醒。 填写基本信息,包括任务名称、压缩后模型名称与描述,单击“立即创建”。 当压缩任务状态为“已完成”时,表示模型已完成压缩操作。 父主题: 开发盘古NLP大模型
尤其对于文本类和图片类数据集,平台支持将其转换为专门用于训练盘古大模型的盘古格式,为后续模型训练提供高效的数据支持。 数据管理:平台支持数据全链路血缘追溯,用户单击数据集名称可以在“数据血缘”页签,查看该数据集所经历的操作。
此外,不同类型的NLP大模型在训练过程中,读取中文、英文内容时,字符长度转换为Token长度的转换比有所不同,详见表2。
判断节点:编排应用时作为分支切换节点,可以根据输入满足的判断条件,指定执行对应的工作流分支。 代码节点:用于引入代码执行器,根据节点的输入,执行指定Python代码,节点的输出是代码执行的结果信息。 知识检索节点:可以根据输入参数从指定知识库内召回匹配的信息。
101742 工作流插件节点参数类型转换时出错。 根据error message确定具体转换出错的参数名称,并确认类型是否正确。 101743 工作流插件节点的input在插件定义中不存在。 检查插件定义和对应的组件定义是否匹配。
调高参数模型会更频繁地切换话题,从而避免生成重复内容。 默认值:0 词汇重复度控制 用于调整模型对频繁出现的词汇的处理方式。调高参数会使模型减少相同词汇的重复使用,促使模型使用更多样化的词汇进行表达。 默认值:0 历史对话保留轮数 选择“文本对话”功能时具备此参数。
图3 多场景测试-不同语言对 复杂对话场景:如图4,当用户在对话中频繁切换意图时,测试意图识别节点的应答能力,确保其能够理解并适应多变的对话上下文。
数据标准化:将数据转换为统一的格式或范围,特别是在处理数值型数据时(如归一化或标准化)。 去噪处理:去除无关或异常值,减少对模型训练的干扰。 数据预处理的目的是保证数据集的质量,使其能够有效地训练模型,并减少对模型性能的不利影响。
模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或计算。 例如,在英文中,有些组合单词会根据语义拆分,如overweight会被设计为2个token:“over”、“weight”。在中文中,有些汉字会根据语义被整合,如“等于”、“王者荣耀”。
基于爬虫、数据处理平台批量处理收集到的原始数据,需要将文件统一转换成纯文本的txt文件,对错误格式数据进行删除。 构建微调数据。生成垂域微调(问答对)数据,将问答对数据分为:单轮问答数据、多轮问答数据、检索增强问答数据和其他特定的指令任务数据等类型。
单击“且”或“或”,可以切换该分支表达式的运算逻辑。 ELSE 该参数将不满足其他条件分支的内容输出,并提供给后序节点的输出参数引用。 添加分支 可以添加新的分支ELSE IF,新分支的配置方式与IF分支相同。 图5 判断节点配置示例 节点配置完成后,单击“确定”。
模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或者计算。 presence_penalty 否 Float 用于调整模型对新Token的处理方式。即如果一个Token已经在之前的文本中出现过,那么模型在生成这个Token时会受到一定的惩罚。