检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据标注功能,可直接在“数据清洗”页面单击操作列“生成”,生成加工数据集。 加工后的数据集可在“数据工程 > 数据加工 > 加工数据集”中查看。 父主题: 加工文本类数据集
在完成数据清洗后,如果无需使用数据标注功能,可直接在“数据清洗”页面单击操作列“生成”,生成加工数据集。 加工后的数据集可在“数据工程 > 数据加工 > 加工数据集”中查看。 父主题: 加工图片类数据集
成功后,状态将显示为“运行成功”。 单击操作列“生成”,将生成“发布数据集”。 发布数据集可在“数据工程 > 数据发布 > 发布数据集”中查看。 通过数据配比功能生成的“发布数据集”,其格式为“默认格式”。 父主题: 发布文本类数据集
流通操作。 当任务状态显示为“运行成功”时,说明数据流通任务执行成功,生成的“发布数据集”可在“数据工程 > 数据发布 > 发布数据集”中查看。 父主题: 发布图片类数据集
数据资源:数据通算单元适用于数据加工,用于正则类算子加工、数据智算单元适用于数据加工,用于AI类算子加工,数据托管单元适用于数据工程,用于存储数据集。 训练资源:训练单元可用于所有大模型的模型训练、模型压缩功能。 推理资源:推理单元可用于NLP、CV、专业大模型的模型推理功能, 模型实例可用于预测、科学计算大模型的模型推理功能。
(如去重、计数、平均、最大、最小、合计)、分组、排序、比较、条件(逻辑操作、离散条件、范围区间等条件的混合和嵌套)、日期操作,支持多表关联查询。 与非专业大模型相比,专业大模型针对特定场景优化,更适合执行数据分析、报告生成和业务洞察等任务。 ModelArts Studio大模型
流通操作。 当任务状态显示为“运行成功”时,说明数据流通任务执行成功,生成的“发布数据集”可在“数据工程 > 数据发布 > 发布数据集”中查看。 父主题: 发布文本类数据集
部署NLP大模型 创建NLP大模型部署任务 部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务
Explorer可根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。 您可以在API Explorer中具体API页面的“代码示例”页签查看对应编程语言类型的SDK代码。 图1 获取SDK代码示例 当您在中间填充栏填入对应内容时, 右侧代码示例会自动完成参数的组装。 图2 设置输入参数
系统人设,参数设置为默认参数,在输入框输入问题,单击“生成”,模型将基于问题进行回答。 图1 使用预置服务进行文本对话 可以尝试修改参数并查看模型效果。以修改“核采样”参数为例,核采样控制生成文本的多样性和质量: 当“核采样”参数设置为1时,保持其他参数不变,单击“重新生成”,再
事项为重点。管理人员应建立责任所在意识,制定科学规范的使用办法,强化使用过程的监测和评估。必须严格按照项目运作方案来确定资金使用范围,确保所有使用资金都是经过规范操作和审批的,必须严格按照使用资金的监管属性,统一管理各类资金,精细、规范、稳健。在内部管理上,应加强信息通报、关联跨
括输入和期望的输出。 LoRA 局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使假设变得
基本信息 名称 训练任务名称。 描述 训练任务描述。 参数填写完成后,单击“立即创建”。 创建好训练任务后,页面将返回“模型训练”页面,可随时查看当前任务的状态。 父主题: 训练CV大模型
盘古大模型的盘古格式,为后续模型训练提供高效的数据支持。 数据管理:平台支持数据全链路血缘追溯,用户单击数据集名称可以在“数据血缘”页签,查看该数据集所经历的操作。全链路血缘追溯可以帮助用户正向实现数据集影响分析,逆向实现快速问题追踪,提升数据运维和数据治理的效率,帮助用户更好地
大模型使用类 盘古大模型是否可以自定义人设? 如何将本地的数据上传至平台? 导入数据过程中,为什么无法选中OBS的具体文件进行上传? 如何查看预置模型的历史版本? 更多 大模型微调训练类 如何调整训练参数,使盘古大模型效果最优? 为什么微调后的盘古大模型的回答中会出现乱码? 如何判断盘古大模型训练状态是否正常?
领域相关的问题。 此外,针对微调训练任务,平台提供了两种微调方式: 全量微调:适合有充足数据并关注特定任务性能的场景。在全量微调中,模型的所有参数都会调整,以适应特定任务的需求。这种方式适合样本量较大、对推理效果要求较高的任务。例如,在特定领域(如金融、医疗)中,若拥有大量标注数
编排完成的工作流见图12。 图12 多语种翻译工作流编排 步骤2:试运行多语言文本翻译工作流 完成工作流编排后,需要对该工作流进行试运行,以查看工作流效果。工作流试运行步骤如下: 配置文本翻译插件的Token。 单击右上角“试运行”,在“插件配置”中单击“添加参数”,填写X-Aut
单个文件大小不超过50GB,文件数量最多1000个,示例如下所示: 其中,单个cls类别目录下的每个三级目录为一个样本,例如cls1文件的样本为aa和bb。 所有样本文件夹(如 aa)包含的图片数量相等,例如cls1样本aa和bb、cls1样本aa和cls2的样本cc。 每个样本文件夹(如 aa)可
云审计服务(Cloud Trace Service,CTS)是华为云安全解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建、配置追踪器后,CTS可记录用户使用盘古的管理事件和数据事件用于审计。
数据量和质量均满足要求,为什么盘古大模型微调效果不好 这种情况可能是由于以下原因导致的,建议您排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了欠拟合或过拟合。请检查训练参数中的 “训练轮次”或“学