检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请求URI 参数 说明 URI-scheme 传输请求的协议,当前所有API均采用HTTPS协议。 Endpoint 承载REST服务端点的服务器域名或IP。 resource-path 资源路径,即API访问路径。从具体API的URI模块获取。 query-string 查询参数,可选
支持您添加或去除新的高空层次,训练任务会根据您配置的高空层次对模型重新进行训练。 高空变量 设置训练数据的高空变量信息,在“预训练”的场景中也支持您添加或去除新的高空变量,选择后会在变量权重中增加或去除该变量权重,训练任务会根据您配置的高空变量对模型重新进行训练。 表面变量 设置
择标注项,可开启“AI预标注”功能,单击“下一步”。 图1 选择标注数据集 在“创建标注任务”页面,可配置标注分配、标注审核和标注任务的基本信息,单击“完成创建”。 图2 配置标注分配、标注审核、基本信息 当标注任务状态为“已创建”时,在操作列单击“上线”按钮。 进入“数据标注 >
能。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平
用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色从管理者到各模块人员进行不同层级的权限配置,确保每个用户在其指定的工作空间内,拥有合适的访问与操作权限
型”,参考表1完成部署参数设置,启动模型部署。 表1 NlP大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 最大TOKEN长度
准备工作 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费或冻结状态。 检查开发环境要求,确认本地已具备开发环境。 登录“我的凭证 > 访问密钥”页面,依据界面操作指引获取Access Key(AK)和Secret Access Key(SK)。下载的访问密钥为credentials
进入应用详情页面。 图1 填写应用名称与应用描述 图2 创建应用 配置Prompt builder,详见配置Prompt builder。 配置插件,详见配置插件。 配置知识,详见配置知识。 配置对话,详见配置开场白和推荐问题。 调试Agent应用,详见调试Agent应用。 A
5个。 在“高级配置”中配置预先部署好的模型与prompt提示词。单击“确定”,完成参数配置。 图8 意图识别组件参数配置 鼠标拖动左侧“提问器”组件至编排页面,并连接意图识别组件与该组件,单击该组件进行配置操作。提问器组件参数配置见图9。 其中,请将“高级配置 > Prompt提示词”中的内容替换为:
手工编排Agent应用 手工编排Agent应用流程 配置Prompt builder 配置插件 配置知识 配置开场白和推荐问题 调试Agent应用 父主题: 开发盘古大模型Agent应用
可以查看到调用链中该组件的输入和输出。 此外,平台支持配置构建应用所需的NLP大模型参数。 单击应用右上角的,打开大模型参数配置页面。配置参数见表1,完成大模型参数配置。 表1 大模型参数配置 参数 说明 模型选择 选择要使用的LLM,不同的模型效果存在差异。 模式选择 用于配置大模型的输出多样性。 包含取值:
查看NLP大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看模
查看科学计算大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看
、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云安全性的构建思
图3 创建加工数据集 单击“下一步”进入“算子编排”页面。对于视频类数据集,可选择的加工算子及参数配置请参见表1。 在左侧“添加算子”模块勾选所需算子。 在右侧“加工步骤编排”页面配置各算子的参数,可通过右侧按钮,拖拽算子的上下顺序来调整算子在加工任务流中的执行顺序。 算子编排过程
针对“零码”开发者(无代码开发经验),平台提供了Prompt智能生成、插件自定义等能力,方便用户快速构建、调优、运行属于自己的大模型应用,仅需几步简单的配置即可创建属于自己的Agent应用。 对于“低码”开发者(有一定代码开发经验),可以通过工作流方式,适当编写一定代码,来构建逻辑复杂、且有较
压缩NLP大模型 模型在部署前,通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。当前仅支持对NLP大模型进行压缩。采用的压缩方式是INT8,INT8量化压缩可以显著减小模型的存储大小,降低功耗,并提高计算速度。 登录ModelArts Studio大模型开发平台,进入所需操作空间。
图3 创建加工数据集 单击“下一步”进入“算子编排”页面。对于气象类数据集,可选择的加工算子及参数配置请参见表1。 在左侧“添加算子”模块勾选所需算子。 在右侧“加工步骤编排”页面配置各算子的参数,可通过右侧按钮,拖拽算子的上下顺序来调整算子在加工任务流中的执行顺序。 算子编排过程
图3 创建加工数据集 单击“下一步”进入“算子编排”页面。对于图片类数据集,可选择的加工算子及参数配置请参见表1、表2。 在左侧“添加算子”模块勾选所需算子。 在右侧“加工步骤编排”页面配置各算子的参数,可通过右侧按钮,拖拽算子的上下顺序来调整算子在加工任务流中的执行顺序。 算子编排
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型