检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
输入应用名称,如“Python编码助手”,输入应用描述,单击“确定”,完成应用创建。 图1 创建应用 步骤2:配置Prompt 创建应用后,需要撰写提示词(Prompt),为应用设定人设、能力、核心技能、执行步骤。 应用会根据盘古NLP大模型对提示词的理解,来响应用户问题。因此,一
盘古大模型服务的功能限制详见表3。 表3 功能限制 功能类型 使用限制 数据工程-数据格式要求 ModelArts Studio平台支持接入的数据需要满足格式要求,包括文件格式、单个文件大小、所有文本大小以及文件数量等,请参考《用户指南》“使用数据工程构建数据集 > 数据集格式要求”。 模型开发-训练、评测最小数据量要求
输入参数对应。 plugin_configs 否 List<PluginConfig> 插件配置,当工作流有配置用户自定义插件节点时,可能需要配置鉴权信息等,具体结构定义详见表4。 表4 PluginConfig参数 参数 是否必选 参数类型 描述 plugin_id 是 String
具体订购步骤如下: 使用主账户登录ModelArts Studio大模型开发平台,单击“立即订购”进入“订购”页面。 在“开发场景”中勾选需要订购的大模型(可多选),页面将根据勾选情况适配具体的订购项。 图1 选择开发场景 在“模型资产”页面,参考表1完成模型资产的订购。 表1 模型资产订购说明
单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布 > 数据配比”,单击界面右上角“创建配比任务”。 在“数据集选择”页签选择需要配比的文本类数据集(至少选择两个),单击“下一步”。 在“数据配比”页面,支持两种配比方式,“按数据集”和“按标签”。 按数据集:可以设置不同数据集的配比数量,单击“确定”。
引导模型逐步分析问题,可以有效提高大模型在复杂推理任务中的准确性。这种方法不仅帮助模型更好地理解问题,还能增强模型的推理能力,特别是在处理需要多步推理的任务时。 父主题: 提示词工程类
由账号在IAM中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。 在我的凭证下,您可以查看账号ID和用户ID。通常在调用API的鉴权过程中,您需要用到账号、用户和密码等信息。 区域(Region) 从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VP
登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“能力调测”,单击“文本对话”页签。 选择需要调用的服务。可从“预置服务”或“我的服务”中选择。 填写系统人设。如“你是一个AI助手”,若不填写,将使用系统默认人设。 在页面右侧配置参数,具体参数说明见表1。
据集”,用于后续模型训练等操作。 平台支持发布的数据集格式为默认格式、盘古格式。 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要发布为该格式。当前仅文本类、图片类数据集支持发布为盘古格式。 父主题: 使用数据工程构建数据集
息及评测概览。 其中,各评测指标说明详见NLP大模型评测指标说明。 导出评测报告。 在“评测报告 > 评测明细”页面,单击“导出”,可选择需要导出的评测报告,单击“确定”。 单击右侧“下载记录”,可查看导出的任务ID,单击操作列“下载”,可将评测报告下载到本地。 NLP大模型评测指标说明
要求时,可以进行预训练或微调。预训练、微调操作的适用场景如下: 预训练:训练用于添加新的高空层次、高空变量或表面变量。如果您需要在现有模型中引入新要素,需要使用训练(重新训练模型)。在重训配置参数时,您可以选择新要素进行训练。请注意,所选的数据集必须包含您想要添加的新要素。此外,
进入所需空间。 在左侧导航栏中选择“数据工程 > 数据加工 > 数据合成”,单击界面右上角“创建合成任务”。 在“创建合成任务”页面,选择需要合成的数据集,单击“下一步”。 进入“合成配置”页面,选择合成内容与合成轮数,可选择开启“将源数据集整合至合成后数据”。 单击“下一步”,
结束节点是工作流的最终节点。当工作流执行完成后,需要结束节点用于输出工作流的执行结果。结束节点不支持新增或者删除,该节点后不支持添加其他节点。 结束节点可能会有多个输入,但是只能有一个输出值,因此需要开发者在“指定回复”中合并多个输入值为一个输出值。 结束节点为必选节点,需要配置于所有场景中。 结束节点配置步骤如下:
et分别表示问题、答案。 [{"system":"你是一位书籍推荐专家"},{"context":"你好","target":"嗨!你好,需要点什么帮助吗?"},{"context":"能给我推荐点书吗?","target":"当然可以,基于你的兴趣,我推荐你阅读《自动驾驶的未来》。"}]
ntent。 role表示对话的角色,取值是system或user。 如果需要模型以某个人设形象回答问题,可以将role参数设置为system。不使用人设时,可设置为user。在一次会话请求中,人设只需要设置一次。 content表示对话的内容,可以是任意文本。 messages
Studio大模型开发平台,在“空间资产 > 模型 > 本空间”页面,单击支持导出的模型名称,右上角的“导出模型”。 在“导出模型”页面,选择需要导出的模型,应设置导出模型时对应的导出位置(OBS桶地址),添加从环境B中下载的用户证书。设置完成后单击“确定”导出模型。 图2 导出模型
准,某城市关注某一些特定事件类别,另一个城市又关注另一些特定事件类别。因此,城市政务场景面临着众多碎片化AI需求场景。 传统的AI开发模式需要对每种目标类别单独采集数据、训练模型,依赖专家经验进行算法参数调优,最后才能上线应用。基于ModelArts Studio平台开发工作流,
Pangu-NLP-N2-Base-20241030 - 4K 2024年11月发布的版本,仅支持模型增量预训练。32个训练单元起训,预训练后的模型版本需要通过微调之后,才可支持推理部署。 Pangu-NLP-N2-Chat-32K-20241030 32K 4K 2024年10月发布版本,支
力,加速业务开发进程。 API文档 NLP大模型 科学计算大模型 Agent开发 Token计算器 02 准备工作 使用盘古大模型服务前,需要进行一系列准备工作,确保您能够顺利使用盘古大模型服务。 准备工作 申请试用盘古大模型服务 订购盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间
选择“微调”。 训练目标 选择“全量微调”。 全量微调:在模型进行有监督微调时,对大模型的所有参数进行更新。这种方法通常能够实现最佳的模型性能,但需要消耗大量计算资源和时间,计算开销较大。 基础模型 选择全量微调所用的基础模型, 可从“已发布模型”或“未发布模型”中进行选择。 高级设置