检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型
调用NLP大模型 使用“能力调测”调用NLP大模型 使用API调用NLP大模型 统计NLP大模型调用信息 父主题: 开发盘古NLP大模型
加工文本类数据集 清洗文本类数据集 合成文本类数据集 标注文本类数据集 父主题: 加工数据集
加工图片类数据集 清洗图片类数据集 标注图片类数据集 父主题: 加工数据集
开发盘古预测大模型 使用数据工程构建预测大模型数据集 训练预测大模型 部署预测大模型
开发盘古专业大模型 部署专业大模型
使用前必读 概述 调用说明 请求URI 基本概念
NLP大模型 文本对话 父主题: API
气象/降水模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
海洋模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“CV大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。 资源配置 计费模式
部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“预测大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。 资源配置 计费模式
参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。
大模型开发基本流程介绍 大模型(Large Models)通常指的是具有海量参数和复杂结构的深度学习模型,广泛应用于自然语言处理(NLP)等领域。开发一个大模型的流程可以分为以下几个主要步骤: 数据集准备:大模型的性能往往依赖于大量的训练数据。因此,数据集准备是模型开发的第一步。
模型类型 选择“专业大模型 > BI专业大模型”或“专业大模型 > 搜索专业大模型”。 部署模型 在“从资产选模型”选择所需模型。 部署方式 云上部署:算法部署至平台提供的资源池中。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。
海浪智能预测”。 全球中期天气要素预测模型可以选择1个或者多个模型进行部署。 部署模型 在“从资产选模型”选择所需模型。 部署方式 选择“云上部署”。 作业输入方式 选择 “OBS”表示从OBS中读取数据。 作业输出方式 选择 “OBS”表示将输出结果存储在OBS中。 作业配置参数
插件介绍 在Agent开发平台中,插件是大模型能力的重要扩展。通过模块化方式,插件能够为大模型提供更多专业技能和复杂任务处理能力,使其在多样化的实际场景中更加高效地满足用户需求。 通过插件接入,用户可以为应用赋予大模型本身不具备的能力。插件提供丰富的外部服务接口,当任务执行时,模
盘古大模型为用户提供了服务试用,需提交试用申请。 试用申请步骤如下: 登录ModelArts Studio大模型开发平台。 单击“试用咨询”,进入华为云售前咨询页面。 图1 申请试用 填写姓名、联系电话等用户信息,单击“提交申请”进行表单预约。 父主题: 准备工作
编排工作流 Agent平台支持对工作流编排多个节点,以实现复杂业务流程的编排。 工作流包含两种类型: 对话型工作流。面向多轮交互的开放式问答场景,基于用户对话内容提取关键信息,输出最终结果。适用于客服助手、工单助手、娱乐互动等场景。 任务型工作流。面向自动化处理场景,基于输入内容
使用盘古NLP大模型创建Python编码助手应用 场景描述 该示例演示了如何使用盘古NLP大模型创建Python编码助手执行应用,示例将使用Agent开发平台预置的Python解释器预置插件。 “Python解释器插件”能够执行用户输入的Python代码,并获取结果。此插件为应用