检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
型在预训练、微调、模型评测、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古科学计算大模型支持的具体操作: 表2 盘古科学计算大模型支持的操作 模型 预训练 微调 模型评测 模型压缩 在线推理 能力调测 Pangu-AI4S-Ocean_24h-20241130
微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使假设变得过度严格,会导致模型产生“以偏概全”的现象,导致模型泛化效果变差。 欠拟合 欠拟合是指模
描述 填写评测任务描述。 参数填写完成后,单击“立即创建”,回退至“模型评测 > 人工评测”页面。 当状态为“待评测”时,可以单击操作列“在线评测”进入评测页面。 依据页面提示对评估效果区域进行评测打分,全部数据评测完成后单击“提交”。 图1 人工评测示例 在“人工测评”页面,评
选择“微调”。 训练目标 选择“全量微调”。 全量微调:在模型进行有监督微调时,对大模型的所有参数进行更新。这种方法通常能够实现最佳的模型性能,但需要消耗大量计算资源和时间,计算开销较大。 基础模型 选择全量微调所用的基础模型, 可从“已发布模型”或“未发布模型”中进行选择。 高级设置
平台预置了多种数据类型的基础评估标准,包括NLP、视频和图片数据,用户可根据需求选择预置标准或自定义评估标准,从而精确优化数据质量,确保数据满足高标准,提升模型性能。 发布数据集 数据发布是将单个数据集发布为特定格式的“发布数据集”,用于后续模型训练等操作。 平台支持发布的数据集格式为标准格式、盘古格式。
可单击“”对知识库进行高级配置,包括相关度阈值与topk召回数量。 相关度阈值:超过相关度阈值的搜索结果会提交给大模型进行总结,否则被过滤,可以参考知识库中命中测试的相关度分值调整该阈值。 topk召回数量:召回的相关性阈值top切片数量,如topk召回数量为5,则相关性阈值为前5的切片将被召回提交给大模型总结。
型根据输出参数描述,自动生成包含所有问题关键词的一个问题。 最大回复轮数 该参数指在与用户交互过程中,模型能够持续进行对话而不丧失上下文或性能的最大回合数。 输入配置 对话历史 开启对话历史后,当前工作流的上下文会带入提问器。 高级配置 指令 提供大模型额外的提示信息,用于更准确
来源一:互联网开源数据集,如政府网站网页、政府在线问答公开数据、政务百科等。 来源二:特定的私域数据,针对于具体场景和项目需求,收集相关的文本数据。比如通过与当地政府的政数局进行合作,获取政府部门提供的内部脱敏数据等。相关的数据格式包括但不限于:在线网页、离线word文档、离线txt文件
行微调,使其更好地理解和回答与该领域相关的问题。 此外,针对微调训练任务,平台提供了两种微调方式: 全量微调:适合有充足数据并关注特定任务性能的场景。在全量微调中,模型的所有参数都会调整,以适应特定任务的需求。这种方式适合样本量较大、对推理效果要求较高的任务。例如,在特定领域(如
配置参数时,您可以选择新要素进行训练。请注意,所选的数据集必须包含您想要添加的新要素。此外,您还可以通过训练更改所有的模型参数,以优化模型性能。 微调:微调是将新数据应用于已有模型的过程。它适用于不改变模型结构参数和引入新要素的情况。如果您有新的观测数据,可以使用微调来更新模型的权重,以适应新数据。
下客户需求。 金融场景下,NL2JSON能力可以有效消除用户语义歧义性,提高数据处理的灵活性和便利性,降低人力开发成本、提升交付效率和查询性能,同时赋能精细化运营。 选择基模型/基础功能模型 盘古-NLP-N2-基础功能模型 准备训练数据 本场景不涉及自监督训练,无需准备自监督数据。
为什么其他大模型适用的提示词在盘古大模型上效果不佳 提示词与训练数据的相似度关系。 提示词的效果通常与训练数据的相似度密切相关。当提示词的内容与模型在训练过程中接触过的样本数据相似时,模型更容易理解提示词并生成相关的输出。这是因为模型通过学习大量的训练数据,逐渐建立起对特定模式、