检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
供了强大的计算、数据处理和分析功能,用户只需将其添加到应用中,即可扩展功能。 自定义插件:为了满足更个性化的需求,平台允许开发者创建自定义插件,支持将API通过配置方式快速创建为插件,并供Agent调用。这样,开发者可以根据特定需求为应用增加专属功能。 父主题: 创建与管理插件
越好。 均方根误差 均方根误差是预测值与真实值之间差异的平方和的均值的平方根。它用于衡量模型预测值与实际值之间的偏差,数值越小,表明模型预测的精度越高。 平均绝对误差 平均绝对误差是预测值与真实值之间绝对误差的均值。它同样用于衡量模型预测值与实际值之间的差异,数值越小,表明模型预测的准确性越高。
平均数。 综合能力 综合能力是计算所有数据集通过率的加权平均数。 表3 NLP大模型人工评测指标说明 评测指标(人工评测) 指标说明 准确性 模型生成答案正确且无事实性错误。 average 模型生成句子与实际句子基于评估指标得到的评分后,统计平均得分。 goodcase 模型生
原因。典型训练报错和解决方案请参见CV大模型训练常见报错与解决方案。 训练日志可以按照不同的节点(训练阶段)进行筛选查看。分布式训练时,任务被分配到多个工作节点上进行并行处理,每个工作节点负责处理一部分数据或执行特定的计算任务。日志也可以按照不同的工作节点(如worker-0表示第一个工作节点)进行筛选查看。
推理性能和跨平台迁移工具,模型开发工具链能够保障模型在不同环境中的高效应用。 支持区域: 西南-贵阳一 开发盘古NLP大模型 开发盘古科学计算大模型 开发盘古专业大模型 应用开发工具链 应用开发工具链是盘古大模型平台的关键模块,支持提示词工程和智能Agent应用创建。 该工具链提
更新过快,从而帮助模型更好地收敛。 学习率衰减比率 用于控制训练过程中学习率下降的幅度。 计算公式为:最低学习率 = 初始学习率 × 学习率衰减比率。 权重衰减系数 通过在损失函数中加入与模型权重大小相关的惩罚项,鼓励模型保持较小的权重,防止过拟合或模型过于复杂。 优化器 优化器
[{"context":"你好","target":"你好,请问有什么可以帮助你的?"},{"context":"请介绍一下华为云的产品。","target":"华为云提供包括但不限于计算、存储、网络等产品服务。"}] 单个文件大小不超过50GB,文件数量最多1000个。。 多轮问答(人设) jsonl
的可能性。通过在计算损失函数(用于优化模型的指标)时增加对重复输出的惩罚来实现的。如果模型生成了重复的文本,它的损失会增加,从而鼓励模型寻找更多样化的输出。 提示词工程相关概念 表4 提示词工程相关概念说明 概念名 说明 提示词 提示词(Prompt)是一种用于与AI人工智能模型
收敛并取得良好的性能。 开发阶段的关键是平衡模型的复杂度和计算资源,避免过拟合,同时保证模型能够在实际应用中提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面: 模型优化与部署:将训练好的大模型部署到生产环境中,可能通过云服务或本地
练数据。 平台支持气象类数据集的加工操作,气象类加工算子能力清单见表1。 表1 气象类清洗算子能力清单 算子分类 算子名称 算子描述 科学计算 气象预处理 将二进制格式的气象数据文件转换成结构化JSON数据。 父主题: 数据集清洗算子介绍
INT4:该压缩策略与INT8相比,可以进一步减少模型的存储空间和计算复杂度。 配置资源。选择计费模式并设置训练单元。 可选择开启订阅提醒。开启后,系统将在本次压缩任务状态变更时,向用户发送短信/邮件提醒。 填写基本信息,包括任务名称、压缩后模型名称与描述,单击“立即创建”。
用于判断文档重复度,根据特征N值计算文档内词语按N值组合后的重复此时,可通过以下两种算法比较结果是否大于特征阈值,大于特征阈值的文档删除。 top-gram过滤:计算重复最多的garm占总长度的比例,大于特征阈值则删除。 gram重复率过滤:计算所有重复的garm占总长度的比例,大于特征阈值则删除。
模型开发-模型最小训练单元 不同模型的最小训练单元有所不同,具体信息请参见模型能力与规格。 模型开发-NLP大模型请求的最大Token数 不同系列的NLP大模型支持请求的最大Token数有所不同,具体信息请参见模型能力与规格。
步骤6:配置对话体验 应用支持配置对话体验功能,该功能可以提升用户与应用之间的互动质量和个性化体验,包括开场白、推荐问题与追问。 开场白:开场白是用户与应用进行首次交互时,应用主动向用户展示的一段内容。 推荐问题:推荐问题是用户首次与应用互动时,应用主动展示的一些问题或话题建议。 追问:在
题并优化调整。评测功能能够帮助用户在多种应用场景下验证模型的准确性与可靠性。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了
权限管理 如果您需要对华为云上购买的盘古大模型资源,为企业中的员工设置不同的访问权限,以达到不同员工之间的权限隔离,您可以使用统一身份认证服务(IAM)和盘古角色管理功能进行精细的权限管理。 如果华为云账号已经能满足您的要求,不需要创建独立的IAM用户(子用户)进行权限管理,您可
通过上述指令,将一个推理任务拆解分步骤进行,可以降低推理任务的难度并可以增强答案可解释性。另外,相比直接输出答案,分步解决也容许大模型有更多的“思考时间”,用更多的计算资源解决该问题。 自洽性 同一问题使用大模型回答多次,生成多个推理路径及答案,选择一致性最高的结果作为最终答案。 父主题: 提示词写作进阶技巧
创建与管理插件 插件介绍 创建插件 管理插件 父主题: 开发盘古大模型Agent应用
意味着在提示词中明确要求模型逐步分析问题的各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个推理步骤后得出更准确的结论,而不是直接跳到最终答案,减少了过度简化或跳跃推理的可能性。 分步推理与反馈:通过分步推理,模型能够在每个步骤后检查和修正自己的思考过程。 例
编排与调用应用 应用介绍 编排应用 调用应用 管理应用 父主题: 开发盘古大模型Agent应用