检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
提示词进行保存和管理。 表1 功能说明 功能 说明 提示用例管理 提示用例集用于维护多组提示词变量的信息,可以用于提示词的调优、比较和评估。 支持对用例集的创建、查询、修改、删除。 提示词工程任务管理 提示词工程平台以提示词工程任务为管理维度,一个任务代表一个场景或一个调优需求,
推理SDK概述 盘古大模型推理SDK是对REST API进行的封装,通过该SDK可以处理用户的输入,生成模型的回复,从而实现自然流畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(多轮对话)(/chat/completions) Java、Python、Go、
1(50GB)、D2(50GB)、D3(50GB),则3*50=150GB,此时用户可以控制最大的数据量,限制数据量大小,如100GB。 表1 配置比例 配置比例 数据集大小上限500GB 第一阶段 第二阶段 - 数据集 原始大小 默认值 手动修改 实际大小 D1 100GB 1
和其会议ID", "principle":"请在需要查询员工已预订会议室列表时使用", "input_desc": "", "output_desc": "已预订会议室列表", "args_schema": str(pickle.dumps(None))
学习。 这里提供了一些将无监督数据转换为有监督数据的方案,供您参考: 基于规则构建:您可以通过采用一些简单的规则来构建有监督数据。比如: 表1 采用规则将无监督数据构建为有监督数据的常用方法 规则场景 说明 文本生成:根据标题、关键词、简介生成段落。 若您的无监督文档中含标题、关
创建AI助手 登录盘古大模型套件平台。 在左侧导航栏中选择“应用开发 > AI助手”,单击页面右上角“创建助手”。参考表1完成AI助手匹配。 表1 创建AI助手参数说明 参数分类 参数名称 参数说明 基本信息 助手名称 设置AI助手的名称。 描述 填写AI助手的描述,如填写功能介绍。
Agent助手 应用介绍 通过模型对复杂任务的自动拆解与外部工具调用执行能力,通过与用户多轮对话,实现会议室预订场景。 环境准备 Java 1.8。 参考安装章节,完成基础环境准备。 盘古大语言模型。 开发实现 创建配置文件llm.properties, 正确配置iam、pangu配置项。信息收集请参考准备工作。
性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考: 表1 推理参数的建议和说明 推理参数 范围 建议值 说明 温度(temperature) 0~1 0.3 温度主要用于控制模型输出的随机性和创
检查开发环境要求,确认本地已具备开发环境。 开通盘古大模型API。 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。 通用文本(文本补全):文本补全接口提供单轮文本能力,常用于文本生成、文本摘要、闭卷问答等任务。 对话问答(多轮对话)
异,可执行的训练操作也有所不同。 表1 不同系列模型对训练的支撑情况 训练任务 N1 N2 N4 预训练 × × × 微调 √ √ √ 不同系列的模型,对文本长度的处理也各有差异,选择合适的模型能够处理特定长度的文本,从而提高模型的整理效果。 表2 NLP大模型清单 模型类别 模型
度的控制。可以在盘古服务的委托中增加Pangu OBSWriteOnly、Pangu OBSReadOnly策略,控制OBS的读写权限。 表1 策略信息 策略名称 拥有细粒度权限/Action 权限描述 Pangu OBSWriteOnly obs:object:PutObjectAcl
以提高训练效率。如果规模较大,那么可能需要较小的学习率和较小的批量大小,防止内存溢出。 这里提供了一些微调参数的建议值和说明,供您参考: 表1 微调参数的建议和说明 训练参数 范围 建议值 说明 训练轮数(epoch) 1~50 2/4/8/10 训练轮数是指需要完成全量训练数据
登录盘古大模型套件平台。 在左侧导航栏中选择“模型开发 > 模型评估”。 单击界面右上角“创建评估任务”,进入评估任务创建页面。 图1 模型评估列表页面 填写评估任务所需的评估配置、评估数据和基本信息。 图2 创建评估任务 评估配置: 待评估模型:支持选择多个模型版本同时评估,最多选择5个。待评估模型必须符合前提条件。
为重要参数,该描述直接影响LLM对入参的提取,尽量描述清楚。如果Agent实际执行效果不符合预期,可以调整。 output_desc。工具的出参描述,当前对Agent的表现无重要影响。 args_schema。工具入参类型,为重要参数,入参继承BaseModel的类型需额外指定,简单类型无需指定。 retur
请求URI由如下部分组成。 {URI-scheme} :// {Endpoint} / {resource-path} ? {query-string} 表1 请求URI 参数 说明 URI-scheme 传输请求的协议,当前所有API均采用HTTPS协议。 Endpoint 承载REST服务端点的服务器域名或IP。
对于搭建满意的清洗流程,可以“发布模板”,后续重复使用。发布后的模板,可以在“模板”页签查看,也可以返回数据清洗列表,在“清洗模板 > 我的模板”中查看。 图5 发布模板 清洗流程搭建完成后,单击界面右上角“完成创建”。 单击清洗任务列表操作栏中的“启动”,启动清洗任务。 清洗任务完成后,可以单击“任务名称”,在任
和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 NLP大模型清单 模型类别 模型 token 简介 NLP大模型 盘古-NLP-N1-基础功能模型-32K 部署可选4096、32768
retrievedTools); } } 其中,toolProvider中实现了provide接口,可以利用工具检索的返回动态构建出工具列表,同时也可以加一些后处理工作,如根据黑白名单做工具的过滤。 与上述的toolProvide呼应,在向toolRetriever中添加工具时,
边缘部署准备工作 本指南的边缘部署操作以largemodel集群为例,示例集群信息如下表。 表1 示例集群信息 集群名 节点类型 节点名 规格 备注 largemodel controller ecs-edge-XXXX 鲲鹏通用计算型|8vCPUs|29GiB|rc3.2xlarge