检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是否支持调整 模型实例 ModelArts Studio平台上,单个用户最多可创建和管理2000个模型实例。 是 如果希望申请提升配额,请联系客服。 功能限制 盘古大模型服务的功能限制详见表3。 表3 功能限制 功能类型 使用限制 数据工程-数据格式要求 ModelArts Stud
开发盘古预测大模型 开发盘古科学计算大模型 开发盘古专业大模型 应用开发工具链 应用开发工具链是盘古大模型平台的关键模块,支持提示词工程和智能Agent应用创建。 该工具链提供提示词设计和管理工具,优化大模型的输入提示,提升输出的准确性和相关性。通过可视化编排工具,应用开发工具链
开始节点:作为工作流的入口,开始节点负责接收用户输入的文本。无论是普通对话文本,还是包含翻译请求的文本,都将从此节点开始。 意图识别节点:该节点对用户输入的文本进行分类和分析,识别出用户的意图。主要包括以下两种意图: 文本翻译意图:系统识别出用户希望进行文本翻译的请求。 其他意图:包括普通对话、问答、或其他功能
析到公式应用再到最终解答的完整过程,帮助模型理解问题解决的逻辑。 引导模型分析:如果没有直接的示例或现有示例不适用,可以引导模型首先进行“详细分析”,然后再给出答案。这意味着在提示词中明确要求模型逐步分析问题的各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个
例如,“假设你是一位银行面试官,请生成10个银行面试问题。”、“假如你是一个高级文案策划,请生成10个理财产品的宣传文案。”、“你是一个财务分析师,请分析上述财务指标的趋势。” 父主题: 提示词写作进阶技巧
提示词工程类 如何利用提示词提高大模型在难度较高推理任务中的准确率 如何让大模型按指定风格或格式回复 如何分析大模型输出错误回答的根因 为什么其他大模型适用的提示词在盘古大模型上效果不佳 如何判断任务场景应通过调整提示词还是场景微调解决
表示完成全部训练数据集训练的次数。每个轮次都会遍历整个数据集一次。 是否使用自定义L1预训练模型 是否使用自定义预训练模型进行训练,模型为用户与服务共建,详情请联系客服。 热身轮次 表示在模型训练初期,逐步增加学习率到预设值的训练轮次,用于帮助模型在训练初期稳定收敛,避免大幅度的参数更新导致不稳定的学习过程。
确定性预报的输出要素,例如“Surface:U;1000:T;800:?abc”。 可选择的要素参考表8中,提供的全球海洋要素模型的深海变量和海表变量。 表8 中期海洋智能预测模型信息 模型 深海层深 预报深海变量 预报海表变量 时间分辨率 水平分辨率 区域范围 全球海洋要素模型 0m, 6m, 10m, 20m
科技行业公司的最小利润和市值是多少? 科技行业公司的中位利润和市值是多少? 科技行业公司的总利润和市值是多少? … 来源四:基于大模型的数据泛化。基于目标场任务的分析,通过人工标注部分数据样例,再基于大模型(比如盘古提供的任意一个规格的基础功能模型)采用self-instruct等方式泛化出更多的业务场景数据。示例如下:
科学计算大模型训练常见报错与解决方案 科学计算大模型训练常见报错及解决方案请详见表1。 表1 科学计算大模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提前创建与大模
查看数据集的详细信息,包括数据格式、大小、配比比例等。同时,平台支持数据集的删除等管理操作,使用户能够统一管理数据集资源,以便在模型训练和分析时灵活调用,确保数据资产的规范性与安全性。 模型资产:平台提供的模型资产涵盖了预置或训练后发布的模型,所有这些模型将存放于空间资产中进行统
NLP大模型训练常见报错与解决方案 NLP大模型训练常见报错及解决方案请详见表1。 表1 NLP大模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空。 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提前创建与大
预测大模型训练常见报错与解决方案 预测大模型训练常见报错及解决方案请详见表1。 表1 预测大模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空。 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提前创建与大
例如,对于一般的常规问题解答等场景,可以通过在提示词中引导模型学习如何简洁明了地作答。 如果场景涉及较为复杂、专业的业务逻辑(例如金融分析、医疗诊断等),则需要更为精确的处理方式: 如果该场景的业务规则较少且易于概括,可以尝试使用few-shot方式,通过向模型提供少量示例来让其理解任务并进行推理。
CV大模型训练常见报错与解决方案 CV大模型训练常见报错及解决方案请详见表1。 表1 CV大模型训练常见报错与解决方案 常见报错 问题现象 原因分析 解决方案 创建训练任务时,数据集列表为空。 创建训练任务时,数据集选择框中显示为空,无可用的训练数据集。 数据集未发布。 请提前创建与大
模型支持区域 模型名称 说明 西南-贵阳一 Pangu-Predict-Table-Cla-2.0.0 2024年12月发布的版本,支持分析历史数据中的特征与类别的关系,学习出一种映射规则或函数,然后应用这个规则对未来未知的数据点进行分类。 Pangu-Predict-Table-Reg-2
在训练Agent所需的NLP大模型时,可以开启此参数。通过调整训练数据中的Prompt,引导模型在特定领域或任务上生成更符合预期的回答。 在使用此参数前,请先联系盘古客服,调整Prompt和训练数据。 模型保存步数 每训练一定数量的步骤(或批次),模型的状态将会被保存。可以通过以下公式预估已训练的数据量: token_num
开发盘古大模型提示词工程 开发盘古大模型Agent应用 基于NLP大模型,致力打造智能时代集开发、调测和运行为一体的AI应用平台。无论开发者是否拥有大模型应用的编程经验,都可以通过Agent平台快速创建各种类型的智能体。 开发盘古大模型Agent应用 管理盘古大模型空间资产 管理盘古数据资产
训练集和验证集均推荐使用>1个月的历史数据。 训练数据一般可通过公开数据集获取,例如ERA5。ERA5是由欧洲中期天气预报中心(ECMWF)提供的全球气候的第五代大气再分析数据集,它覆盖从1940年1月至今的时间段,提供每小时的大气、陆地和海洋气候变量的估计值。 ERA5数据下载官方指导:https://confluence
准备训练数据 本场景不涉及自监督训练,无需准备自监督数据。 微调数据来源: 来源一:真实业务场景数据。 来源二:基于大模型的数据泛化。基于目标场任务的分析,通过人工标注部分数据样例,然后利用大模型(如盘古提供的任意规格的基础功能模型)采用self-instruct等方式,泛化出更多的业务场景数据。