检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当部署一个实例时,占用1个推理单元。 单击“立即创建”,下发模型部署任务。 使用外推扩展模型上下文处理长度 在部署模型、部署后修改模型规格时,可以通过外推功能调整模型的输入输出长度。修改部署时扩缩容和外推场景互斥,每次只能修改一个。 当前仅盘古-NLP-N4系列模型以及基于它们训练的模型支持外推。 图1 模型部署外推升级
选择模型类型、训练类型以及基础模型。 数据配置 选择训练数据集和配比类型,设置训练数据集配比,详情请参考数据配比功能介绍。 在训练数据集配比完成后,在单击“创建”或后续修改保存时,会对数据集的有效数据进行统计,确保满足模型训练的要求。 图3 数据配置 基本配置 填写训练数据集名称和描述,选择数据标签。 图4 基本配置
什么情况下不建议微调 虽然微调可以在一定程度上提升领域能力,但有时候微调也无法解决所有问题。即使您的目标场景依赖垂域背景知识,微调也并非最佳方案,比如: 场景微调的数据量很少或者数据质量很差:微调对数据量和数据质量有很高的要求,需要使用高质量的数据进行模型训练。 垂域知识问答场景
因为该请求被设置为拒绝访问,建议直接修改该请求,不要重试该请求。 404 Not Fou 所请求的资源不存在。 建议直接修改该请求,不要重试该请求。 405 Method Not Allowed 请求中带有该资源不支持的方法。 建议直接修改该请求,不要重试该请求。 406 Not
不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。 取值范围:(0, 1] 缺省值:N1模型为0.7、N2模型为1,N4模型为0.85 max_tokens 否 Integer 生成文本的最大token数量,单位token。
数据保护技术 盘古大模型服务通过多种数据保护手段和特性,保障存储在服务中的数据安全可靠。 表1 盘古大模型的数据保护手段和特性 数据保护手段 简要说明 传输加密(HTTPS) 盘古服务使用HTTPS传输协议保证数据传输的安全性。 基于OBS提供的数据保护 基于OBS服务对用户的数
similarity_search("bar", top_k=2) 数据清理 vector_api.clear() CSS插件模式(内部已集成Embedding, 支持多字段组合向量检索)。 CSS插件模式,需要提前手工创建索引(因索引中需要指定embdding/rank模型,SDK不能简单自动创建)。 CSS
估。 支持对用例集的创建、查询、修改、删除。 提示词工程任务管理 提示词工程平台以提示词工程任务为管理维度,一个任务代表一个场景或一个调优需求,在提示词工程任务下可以进行提示词的调优、比较和评估。 提示词工程任务管理支持工程任务的创建、查询、修改、删除。 提示词调优 提示词调优支
”,模型将基于问题进行回答。 图7 体验预置模型多轮对话能力 修改参数以查看模型效果,示例如下: 将“最大口令限制”参数调小,如改为98,保持其他参数不变,单击“重新生成”,可以看到模型回复内容长度减小。 图8 修改“最大口令限制”参数 父主题: 体验盘古大模型功能
”,模型将基于问题进行回答。 图7 体验预置模型多轮对话能力 修改参数以查看模型效果,示例如下: 将“最大口令限制”参数调小,如改为98,保持其他参数不变,单击“重新生成”,可以看到模型回复内容长度减小。 图8 修改“最大口令限制”参数 父主题: 体验盘古大模型功能
r将由用户自定义,将在后续示例中说明。 此外,上述例子使用的向量数据库配置指定索引名称,以及使用name和description作为向量化字段,因此工具入库时,会将工具的name和description进行向量化,并在后续的检索中生效。 注意,上述toolList中包含的工具在SDK中并不存在,需要替换成实际的工具。
vider将由用户自定义,后续会有例子说明。 上述例子使用的向量数据库配置指定索引名称,以及使用name和description作为向量化字段,因此工具入库时,会将工具的name和description进行向量化,并在后续的检索中生效。 注意,上述tool_list中包含的工具在
List<Document> docs = cssVector.clear(); CSS插件模式(内部已集成Embedding, 支持多字段组合向量检索)。 CSS插件模式需要提前手工创建索引(因索引中需要指定embdding/rank模型,SDK不能简单自动创建)。 import
清洗算子功能介绍 数据清洗是提高数据质量的重要环节,包括去除异常的字符、去除表情符号和去除个人敏感内容等,经过清洗的数据可以提升训练阶段的稳定性。 平台支持通过以下清洗能力: 表1 清洗算子说明 算子类型 功能 说明 数据转换 全角转半角 将文本中的所有全角字符转换成半角字符。 中文繁简体互转
以采用PPL(困惑度),或训练一个二分类模型等方式过滤脏数据。 数据增强:您可以通过一些规则来提升数据的多样性,比如:同义词替换、语法结构修改、标点符号替换等,保证数据的多样性。 基于大模型的数据泛化:您可以通过调用大模型(比如盘古提供的任意一个规格的基础功能模型)来获取目标场景
问题或回答中带有不需要的特定格式内容或者时间戳等。 通过编写代码、正则表达式等进行处理,删除或者修改对应的内容,或者直接过滤掉整条数据。 2 原始数据不符合特定微调数据的格式。 通过编写代码进行处理,修改为特定微调格式的数据,例如对于阅读理解微调数据,需要拼接上阅读理解对应的Prompt。
复上采样方式来扩充数据,但该方法不适用于大模型微调的场景,这将导致模型的过拟合。因此可以通过一些规则来扩充数据,比如:同义词替换、语法结构修改、标点符号替换等,保证数据的多样性。 基于大模型的数据泛化:您可以通过调用大模型(比如盘古提供的任意一个规格的基础功能模型)来获取目标场景
大模型的计量单位token指的是什么 令牌(Token)是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或计算。 例如,在英文中,有些组合单词会根据语义拆分,如overweight会被
不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。 取值范围:(0, 1] 缺省值:N1模型为0.7、N2模型为1,N4模型为0.85 max_tokens 否 Integer 生成文本的最大token数量。 输入的
获取Token消耗规则 每个Token代表模型处理和生成文本的基本单位,它可以是一个单词、字符或字符的片段。模型的输入和输出都会被转换成Token,并根据模型的概率分布进行采样或计算。训练服务的费用按实际消耗的Token数量计算,即实际消耗的Token数量乘以Token的单价。为