规格限制 资产、资源类型 规格 说明 模型资产、数据资源、训练资源、推理资源 所有按需计费、包年/包月中的模型资产、数据资源、训练资源、推理资源。 购买的所有类型的资产与资源仅支持在西南-贵阳一区域使用。 配额限制 盘古大模型服务的配额限制详见表2。 表2 配额限制 资源类型 默认配额限制
您还可以变更计费模式。详细介绍请参见变更计费模式。 计费项 盘古大模型的计费项由模型订阅、数据资源、训练资源和推理资源费用组成。了解每种计费项的详细信息,请参考计费项。 续费 包周期资源到期后,如果您想继续使用服务,需要在保留期内进行手动续费,否则不能再对已过保留期的服务进行续费
Choices 多种选择。请求的资源可包括多个位置,相应可返回一个资源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See
支持“云上部署”和“边缘部署”,其中,云上部署指算法部署至平台提供的资源池中。边缘部署指算法部署至客户的边缘设备中(仅支持边缘部署的模型可配置边缘部署)。 部分模型资产支持边缘部署方式,若选择“边缘部署”: 资源池:选择部署模型所需的边缘资源池,创建边缘资源池步骤请详见创建边缘资源池。 CPU:部署需要使用的最小CPU值(物理核)。
GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。
资源池:选择部署模型所需的边缘资源池,创建边缘资源池步骤请详见创建边缘资源池。 CPU:部署需要使用的最小CPU值(物理核)。 内存:部署需要使用的最小内存值。 Ascend:部署使用的NPU数量。 负载均衡:创建负载均衡步骤请详见步骤5:创建负载均衡。 实例数:设置部署模型时所需的实例数。 作业输入方式
计费FAQ 包年/包月和按需计费模式有什么区别 包年/包月和按需计费模式哪个更划算 同一资源是否同时支持包年/包月和按需计费两种模式 包年/包月和按需计费模式是否支持互相切换 资源到期了如何续费
全量升级:新旧版本服务同时运行,直至新版本完全替代旧版本。在新版本部署完成前,旧版本仍可使用。需要该服务所消耗资源的2倍,用于保障全量一次性升级。 滚动升级:部分实例资源空出用于滚动升级,逐个或逐批停止旧版本并启动新版本。滚动升级时可修改实例数。选择缩实例升级时,系统会先删除旧版本,再进行升级,期间旧版本不可使用。
全量升级:新旧版本服务同时运行,直至新版本完全替代旧版本。在新版本部署完成前,旧版本仍可使用。需要该服务所消耗资源的2倍,用于保障全量一次性升级。 滚动升级:部分实例资源空出用于滚动升级,逐个或逐批停止旧版本并启动新版本。滚动升级时可修改实例数。选择缩实例升级时,系统会先删除旧版本,再进行升级,期间旧版本不可使用。
全量升级:新旧版本服务同时运行,直至新版本完全替代旧版本。在新版本部署完成前,旧版本仍可使用。需要该服务所消耗资源的2倍,用于保障全量一次性升级。 滚动升级:部分实例资源空出用于滚动升级,逐个或逐批停止旧版本并启动新版本。滚动升级时可修改实例数。选择缩实例升级时,系统会先删除旧版本,再进行升级,期间旧版本不可使用。
部署模型 在“从资产选模型”选择所需模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。 资源配置 计费模式 包年包月计费模式。 实例数 设置部署模型时所需的实例数。 订阅提醒
在空间资产中。用户可以查看数据集的详细信息,包括数据格式、大小、配比比例等。同时,平台支持数据集的删除等管理操作,使用户能够统一管理数据集资源,以便在模型训练和分析时灵活调用,确保数据资产的规范性与安全性。 模型资产:平台提供的模型资产涵盖了预置或训练后发布的模型,所有这些模型将
遍历整个数据集一次。 Lora矩阵的轶 较高的取值意味着更多的参数被更新,模型具有更大的灵活性,但也需要更多的计算资源和内存。较低的取值则意味着更少的参数更新,资源消耗更少,但模型的表达能力可能受到限制。 Agent微调 在训练Agent所需的NLP大模型时,可以开启此参数。通过
et”两个字段。示例如下: query改写模块:准备对应省略补全任务的数据和对应指代消解任务的数据。 {"context": ["你对李健怎么看 | 音乐诗人李健。请根据以上背景补全以下问题: 喜欢么"], "target": "喜欢李健么"} {"context": ["孩子就是不写作业
通过上述指令,将一个推理任务拆解分步骤进行,可以降低推理任务的难度并可以增强答案可解释性。另外,相比直接输出答案,分步解决也容许大模型有更多的“思考时间”,用更多的计算资源解决该问题。 自洽性 同一问题使用大模型回答多次,生成多个推理路径及答案,选择一致性最高的结果作为最终答案。 父主题: 提示词写作进阶技巧
单击“下一步”,选择发布格式,填写名称,选择数据集可见性,单击“下一步”。 如果评测盘古大模型, 需要在流通数据集时,将数据集格式发布为“盘古格式”。 选择“资源配置”,并单击“确定”。待任务状态为“运行成功”后,单击“启动”,生成“发布数据集”。 父主题: 评测NLP大模型
引导模型分析:如果没有直接的示例或现有示例不适用,可以引导模型首先进行“详细分析”,然后再给出答案。这意味着在提示词中明确要求模型逐步分析问题的各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个推理步骤后得出更准确的结论,而不是直接跳到最终答案,减少了过度简化或跳跃推理的可能性。 分步推理与反馈:
评价指标进行打分。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩,目前支持INT8、INT4量化压缩。 模型部署:平台提供了一键式模型部署功能,用
超参数调优:选择合适的学习率、批次大小等超参数,确保模型在训练过程中能够快速收敛并取得良好的性能。 开发阶段的关键是平衡模型的复杂度和计算资源,避免过拟合,同时保证模型能够在实际应用中提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面:
Studio大模型开发平台,在“空间资产 > 模型”页面,单击右上角的“导入模型”。 在“导入模型”页面,模型来源选择“盘古大模型”。输入模型对应的obs地址和模型命名、选择资源类型、输入资产描述并设置资产可见性后,单击“确定”,启动导入模型任务。 图3 导入模型 父主题: 管理盘古大模型空间资产
您即将访问非华为云网站,请注意账号财产安全