检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请求URI 参数 说明 URI-scheme 传输请求的协议,当前所有API均采用HTTPS协议。 Endpoint 承载REST服务端点的服务器域名或IP。 resource-path 资源路径,即API访问路径。从具体API的URI模块获取。 query-string 查询参数,可选
本样例场景实现多语言文本翻译工作流的试运行。 步骤1:创建并配置多语言文本翻译工作流 登录ModelArts Studio大模型开发平台,单击“AGENT开发”,将跳转至Agent开发平台。 图1 AGENT开发 在Agent开发平台,单击左侧导航栏“工作台”,在“工作流”页签,单击右上角“创建工作流”。
earning Rate)是模型训练中最重要的超参数之一,它直接影响模型的收敛速度和最终性能: 学习率过高,会导致损失在训练初期快速下降,但随后波动较大,甚至出现NaN(梯度爆炸)的问题。 学习率过低,会导致损失下降非常缓慢,训练过程耗时较长,模型可能陷入局部最优等问题。 科学计算大模型的学习率调优策略如下:
如何分析大模型输出错误回答的根因 大模型的输出过程通常是一个黑盒,涉及数以亿计甚至千亿计的参数计算,虽然这些参数共同作用生成输出,但具体的决策机制并不透明。 可以通过在提示词中引导模型输出思考过程,或者在模型输出后追问模型,帮助我们分析错误的根因。例如: “我注意到你犯了xxx的错误,请解释得出该结论的原因。”
基于NL2JSON助力金融精细化运营 场景介绍 在金融场景中,客户日常业务依赖大量报表数据来支持精细化运营,但手工定制开发往往耗费大量人力。因此,希望借助大模型消除语义歧义性,识别用户查询意图,并直接生成支持下游操作的结构化JSON信息。大模型的NL2JSON能力可以从自然语言输
数据集”的过程,用于后续模型训练等操作。 图片类数据集支持发布的格式为: 标准格式:如图1,平台默认的格式。该格式的数据集可发布到资产中,但下游模型开发不可见。 图1 图片类数据集标准格式示例 盘古格式:如图2,训练盘古大模型时,需要将数据集格式发布为“盘古格式”,该数据集将被用于ModelArts
方案设计 虽然传统人工翻译可以提供高质量的结果,但其效率较低且成本高昂。相对而言,机器翻译虽然在速度和成本上具备优势,但在准确性和语境理解上仍存在一定的不足,例如,处理复杂、专业的内容时。 为了解决这些问题,构建一个自动化的多语言翻译工作流显得尤为重要。通过集成翻译工具(如机器翻
训练智能客服系统大模型需考虑哪些方面 大模型微调训练类问题 如何调整训练参数,使盘古大模型效果最优 如何判断盘古大模型训练状态是否正常 为什么微调后的盘古大模型评估结果很好,但实际场景表现很差 数据量足够,为什么盘古大模型微调效果仍然不好 大模型使用类问题 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的单个文件进行上传
为什么在微调后的盘古大模型中输入训练样本问题,回答完全不同 当您将微调的模型部署以后,输入一个已经出现在训练样本中,或虽未出现但和训练样本差异很小的问题,回答完全错误。这种情况可能是由于以下几个原因导致的,建议您依次排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的
无监督领域知识数据量无法支持增量预训练,如何进行模型学习 一般来说,建议采用增量预训练的方式让模型学习领域知识,但预训练对数据量的要求较大,如果您的无监督文档量级过小,达不到预训练要求,您可以通过一些手段将其转换为有监督数据,再将转换后的领域知识与目标任务数据混合,使用微调的方式让模型学习。
果越强,但同时也可能会降低模型的拟合能力。取值范围:[0,1)。 特征删除概率 用于定义特征删除机制中的删除概率。特征删除(也称为特征丢弃)是另一种正则化技术,它在训练过程中随机删除一部分的输入特征,以防止模型过拟合。这个值越大,删除的特征越多,模型的正则化效果越强,但同时也可能会降低模型的拟合能力。取值范围:[0
大模型不涉及物理实体资源,因此无宽限期。欠费后继续调用服务会导致账户冻结,并直接进入保留期,保留期按需资源不可调用。续费后可恢复正常使用,但续费的生效时间以原到期时间为准,需支付从进入保留期开始至续费时的费用。 账户欠费后,部分操作将受限,建议您尽快续费。具体受限操作如下: 按需方式的API接口不可调用。
果越强,但同时也可能会降低模型的拟合能力。 取值范围:[0,1)。 特征删除概率 用于定义特征删除机制中的删除概率。特征删除(也称为特征丢弃)是另一种正则化技术,它在训练过程中随机删除一部分的输入特征,以防止模型过拟合。这个值越大,删除的特征越多,模型的正则化效果越强,但同时也可能会降低模型的拟合能力。
为什么微调后的盘古大模型只能回答训练样本中的问题 为什么在微调后的盘古大模型中输入训练样本问题,回答完全不同 为什么微调后的盘古大模型评估结果很好,但实际场景表现很差 为什么多轮问答场景的盘古大模型微调效果不好 数据量足够,为什么盘古大模型微调效果仍然不好 数据量和质量均满足要求,为什么盘古大模型微调效果不好
常训练,平台支持发布不同格式的数据集。 当前支持标准格式、盘古格式: 标准格式:数据工程功能支持的原始格式。该格式的数据集可发布到资产中,但下游模型开发不可见。 盘古格式:使用盘古大模型训练时所需要使用的数据格式,该数据集将被用于ModelArts Studio大模型开发平台的模型开发中使用。
预期。 解决方案:首先进行问题定位,确定是未检索到相关文档,还是检索到相关内容但模型理解错误。如果未检索到相关文档,则需从入库内容优化、提高检索精度、过滤无关内容等方面进行检索优化。如果检索内容正确,但模型回复不符合预期,则应考虑优化微调数据并重新训练模型。 问题二:针对特定问题
Studio大模型开发平台支持将文本类、图片类数据集发布为两种格式: 标准格式:适用于广泛的数据使用场景,满足大多数模型训练的标准需求。该格式的数据集将发布到资产中,但下游模型开发不可见。 盘古格式:专为盘古大模型训练设计的格式,确保数据集在盘古模型训练中的兼容性和一致性。该格式的数据集将被用于ModelArts
赋能大语言模型,如借助专业领域知识和外部工具来增强大语言模型的能力。 提示词基本要素 您可以通过简单的提示词(Prompt)获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的指令或问题等信息,也可以包含其他种类的信息,如上下文、输入或示例等
调高温度会使得模型的输出更多样性和创新性,反之,降低温度会使输出内容更加遵循指令要求但减少多样性,取值范围为0到1之间。 调高温度,会使得模型的输出更多样性和创新性。 降低温度,会使输出内容更加遵循指令要求但减少多样性。 在基于事实的问答场景,可以使用较低的回复随机性数值,以获得更真实
在“订购管理”页面,单击“模型订购”页签,在订阅模型列表单击操作列“退订”。 模型资产退订后不影响运行中的模型训练、压缩、评测、部署等任务,但退订之后将无法再选择该模型创建任务,请谨慎操作。 退订属于高危操作,在退订模型资产前,请确保您已保存所有必要的数据和进度,以避免不必要的损失。