检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
题,回答完全错误。这种情况可能是由于以下几个原因导致的,建议您依次排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了欠拟合,模型没有学到任何知识。请检查训练参数中的 “训练轮次”或“学习率”等参
回答却完全错误。这种情况可能是由于以下几个原因导致的,建议您依次排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了过拟合。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,适当降低这些参数的值,降低过拟合的风险。
推理参数设置:请检查推理参数中的“话题重复度控制”或“温度”或“核采样”等参数的设置,适当增大其中一个参数的值,可以提升模型回答的多样性。 数据质量:请检查训练数据中是否存在文本重复的异常数据,可以通过规则进行清洗。 训练参数设置:若数据质量存在问题,且因训练参数设置的不合理而导致过拟合,该现象会更加明显。请检查训练参数中的
同属的问题,回答的结果却不理想。这种情况可能是由于以下几个原因导致的,建议您依次排查: 测试集质量:请检查测试集的目标任务和分布与实际场景是否一致,质量较差的测试集无法反映模型的真实结果。 数据质量:请检查训练数据的质量,若训练样本和目标任务不一致或者分布差异较大,则会加剧该现象
boolean 是否开启对提示词进行内容审核,true:审核,false:不审核,默认为true。 answer_moderation boolean 是否开启对推理结果进行内容审核,true:审核,false:不审核,默认为true。 show_result boolean 是否返回内容
图3 创建标注任务 单击“下一步”设置标注人员及信息,单击“完成创建”。 分配标注任务时,可以选择是否启用多人标注。启用多人标注后,可以指定参与标注的人员。 标注任务可选择是否启用标注审核,可设置多人审核,详见审核文本类数据集标注结果。审核要求可以选择以下两种方式: 选择“可部
该参数值的数据类型,当前支持三种类型。 String:字符串类型 Integer:四字节整型 Number:八字节浮点数 请求方式 默认以Body方式请求。 是否必填 指定该参数是否为必填项。 打开开关:必填 关闭开关:非必填 默认值 参数的默认值,如果插件服务的入参生成缺失,默认值会在大模型解析时被使用。 响应参数
仅作为标注人员的参考,以提高标注效率。 图3 创建标注任务 单击“下一步”设置标注人员及信息,单击“完成创建”。 分配标注任务时,可以选择是否启用多人标注。启用多人标注后,可以指定参与标注的人员。 对于使用AI进行预标注的视频Caption任务可设置以下两种方式的“标注要求”:
请检查数据集对应的OBS路径是否有效,是否可正常访问。 data management query dataset data invalid. 请检查标注数据集是否存在,是否被删除。 dataset obs file empty. 检查数据集文件是否还存在于原先的OBS桶中。 download
服务端返回的json数据不符合json反序列化的规则,和sdk定义的数据结构不一致,导致反序列化失败。 sdk json数据解析问题。 建议排查服务端返回的数据是否和服务SDK设计的结构、字段一致。 SDK运行报错 java.lang.NoClassDefFoundError: Could not initialize
路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2 请求Header参数 参数 是否必选 参数类型
登录环境A的ModelArts Studio大模型开发平台,在“空间资产 > 模型 > 本空间”页面,单击操作列“更多 > 导出”。若无导出选项,请确认该空间是否为当前用户创建的空间。 选择需要导出的模型,应设置导出模型时对应的导出位置(OBS桶地址),添加从环境B中下载的用户证书。设置完成后单击“确定”导出模型。
专用Region。 详情请参见区域和可用区。 可用区(AZ,Availability Zone) 一个AZ是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。
valid number is 0. 该日志表示数据集中的有效样本量为0,可能有如下原因: 数据未标注。 标注的数据不符合规格。 请检查数据是否已标注或标注是否符合算法要求。 父主题: 训练科学计算大模型
大模型使用类问题 盘古大模型是否可以自定义人设
valid number is 0. 该日志表示数据集中的有效样本量为0,可能有如下原因: 数据未标注。 标注的数据不符合规格。 请检查数据是否已标注或标注是否符合算法要求。 训练日志提示“ValueError: label_map not match” 训练日志中提示“ValueError:
模型规格:不同规格的模型支持的长度不同,若目标任务本身需要生成的长度已经超过模型上限,建议您替换可支持更长长度的模型。 数据质量:请检查训练数据中是否存在包含异常截断的数据,可以通过规则进行清洗。 父主题: 大模型微调训练类问题
请你从目标数据中提取翻译相关参数,参数包括origintext(待翻译文本),from(原始语言),to(翻译目标语言)。目标数据未提供或者有歧义(如存在多个)的变量请保证取值为空\'\'。from的取值范围为ar、de、ru、fr、ko、pt、ja、th、es、en、vi、zh、
训练参数 参数说明 训练配置 模型来源 选择“盘古大模型” 模型类型 选择“NLP大模型”。 训练类型 选择“微调”。 训练目标 全量微调:在模型有监督微调过程中,对大模型的全部参数进行更新。这种方法通常会带来最优的模型性能,但需要大量的计算资源和时间,计算开销较高。 LoRA微调:在模
、开始/结束时间、运行时长和输入/输出。 单击“节点详情”页签。 可以查看到该次执行的主要组件耗时时长和占比情况,以及该次执行的调用链及其是否成功的状态。 单击调用链中的某个组件(例如插件天气搜索),展开调用链。 可以查看到调用链中该组件的输入和输出。 此外,平台支持配置构建应用所需的NLP大模型参数。