检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建NLP大模型部署任务”。 本实践将使用华为云文本翻译API,请先完成创建多语言文本翻译插件操作。 操作流程 创建盘古多语言文本翻译工作流的流程见表1。 表1 创建盘古多语言文本翻译工作流流程 操作步骤 说明 步骤1:创建并配置多语言文本翻译工作流 本样例场景实现多语言文本翻译工作流的创建与配置。
生成的命令只能改写命令案例中文表达部分的内容 指标接口名称:利润的平均值、市值的平均值 命令案例:科技行业公司的平均利润和市值是多少 通过调用大模型,获取更多数据: 1. "请给我科技行业公司的利润平均值和市值平均值。" 2. "科技行业的公司平均利润和市值都是多少?" 3. "
如果学习率过小,模型的收敛速度将变得非常慢。 训练轮数 表示完成全部训练数据集训练的次数。每个轮次都会遍历整个数据集一次。 Lora矩阵的轶 较高的取值意味着更多的参数被更新,模型具有更大的灵活性,但也需要更多的计算资源和内存。较低的取值则意味着更少的参数更新,资源消耗更少,但模型的表达能力可能受到限制。 Agent微调
px,关于拍摄角度、距离、分辨率等画面拍摄条件,需要保证训练集图片和测试部署时的图片保持一致。 构建CV大模型数据集流程 在ModelArts Studio大模型开发平台中,使用数据工程构建盘古CV大模型数据集流程见表2。 表2 盘古CV大模型数据集构建流程 流程 子流程 说明 操作指导
true:仅统计输入字符串的Token数; false:统计输入字符串和推理过程产生字符的总Token数。 响应参数 表4 响应Body参数 参数 参数类型 描述 tokens List<String> 分解出的Token列表。 token_number Integer Token总数统计结果。
繁出现相同词汇。 平衡的:平衡模型输出的随机性和准确性。 创意性的:模型输出内容更具多样性和创新性,某些场景下可能会偏离主旨。 自定义:自定义大模型输出的温度和核采样值,生成符合预期的输出。 温度 调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性,取值范围为0到1之间。
在左侧导航栏中选择“模型开发 > 模型训练”,单击右上角“创建训练任务”。 在“创建训练任务”页面,参考表1完成训练参数设置。 其中,“训练参数”展示了各场景涉及到的全部参数,请根据具体前端页面展示的参数进行设置。 表1 CV大模型微调参数说明 参数分类 训练参数 说明 训练配置 模型来源 选择“盘古大模型”。
可以直接利用过去的观测数据,而不仅仅依赖于数值模型。 全球中期天气要素预测模型、降水模型信息见表1。 表1 全球中期天气要素预测模型、降水模型信息表 模型 预报层次 预报高空变量 预报表面变量 降水 时间分辨率 水平分辨率 区域范围 全球中期天气要素预测模型 13层(1000hpa
安装SDK 使用SDK前,需要安装“huaweicloud-sdk-core”和“huaweicloud-sdk-pangulargemodels”。 请在SDK中心获取最新的sdk包版本,替换示例中版本。 表1 安装推理SDK SDK语言 安装方法 Java 在您的操作系统中下载并
根据不同数据类型和业务需求进行有针对性的优化,使数据更符合训练标准,提高训练效率和精度。 确保业务需求对接 不同业务场景和模型应用对数据有不同的要求。数据加工能够根据特定业务需求进行定制化处理,确保数据满足应用场景的需求,从而提高数据和模型的匹配度,提升业务决策和模型预测的准确性。
的搜索体验。 温度 用于控制生成文本的多样性和创造力。调高温度会使得模型的输出更多样性和创新性。 默认值:0 核采样 控制生成文本多样性和质量。调高核采样可以使输出结果更加多样化。 默认值:1.0 最大口令限制 用于控制聊天回复的长度和质量。 默认值:2048 话题重复度控制 用
5汉字。不同模型的具体情况详见表1。 表1 token比 模型规格 token比(token/英文单词) token比(token/汉字) N1系列模型 0.75 1.5 N2系列模型 0.88 1.24 N4系列模型 0.75 1.5 训练相关概念 表2 训练相关概念说明 概念名
在左侧导航栏中选择“空间资产 > 模型”。 单击“预置”页签,在预置模型列表,单击模型,可对预置的模型资产执行以下操作: 查看模型历史版本。在“版本列表”页面,可查看模型的各个版本。 训练、压缩、部署操作。在“版本列表”页面,可对不同版本模型执行训练、压缩或部署操作。单击相应按钮,将跳转至相关操作页面。
入数据中存在的时间点。 海表变量 用于描述海洋表面及其生态系统状态的具体指标,尤其是在海洋模型中用于模拟海洋生态和物理过程的输入变量。包括海平面气压、海表高度、总叶绿素浓度、叶绿素浓度、硅藻浓度、颗石藻浓度、蓝藻浓度、铁浓度、硝酸盐浓度、混合层深度、海表高度、有效波高等指标。不同模型的指标以页面展示为准。
请求示例如图1,一个请求主要由请求URI、请求方法、请求消息头和请求消息体组成。 图1 请求示例图 请求URI 请求URI由如下部分组成: {URI-scheme} :// {Endpoint} / {resource-path} ? {query-string} 表1 请求URI 参数 说明 URI-scheme
且符合语境的文本。 通过对海量数据的深入学习和分析,盘古大模型能够捕捉语言中的细微差别和复杂模式,无论是在词汇使用、语法结构,还是语义理解上,都能达到令人满意的精度。此外,模型具备自我学习和不断进化的能力,随着新数据的持续输入,其性能和适应性不断提升,确保在多变的语言环境中始终保持领先地位。
点配置页面。 参照表6,完成判断节点的配置。 表6 判断节点配置说明 配置类型 参数名称 参数说明 参数配置 IF IF分支由[参数名称 比较条件 比较对象 值]组成一条件表达式。 参数名称:条件表达式左边部分,需要选择来自前序节点的输出参数。 比较条件:条件表达式中间部分,当前支持的比较条件有:
标说明如表1、表2、表3。 表1 NLP大模型自动评测指标说明-不使用评测模板 评测指标(自动评测-不使用评测模板) 指标说明 F1_SCORE 精准率和召回率的调和平均数,数值越高,表明模型性能越好。 BLEU-1 模型生成句子与实际句子在单字层面的匹配度,数值越高,表明模型性能越好。
Studio大模型开发平台为用户提供了多种规格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 盘古NLP大模型规格 模型支持区域 模型名称 可处理最大上下文长度
古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。 操作流程 使用盘古NLP大模型创建Python编码应用的流程见表1。 表1 用盘古NLP大模型创建Python编码应用 操作步骤 说明 步骤1:创建应用 本样例场景实现应用的创建。 步骤2:配置Prompt 本样例场景实现应用中的提示词配置。