检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
自动生成标注内容,不会覆盖原始数据集,供标注人员参考,以提高标注效率。 单击“下一步”,可查看效果预览。 单击“下一步”,参考表1配置标注分配与审核。 表1 标注分配与审核配置 参数类型 参数名称 参数说明 标注分配 启用多人标注 关闭时,默认管理员单人标注。 启用时,可以指定参与标注的人员及标注数量。
选择标注项时,不同类型的数据文件对应的标注项有所差异,可基于页面提示进行选择。 单击“下一步”,可查看效果预览。 单击“下一步”,参考表1配置标注分配与审核。 表1 标注分配与审核配置 参数类型 参数名称 参数说明 标注分配 启用多人标注 关闭时,默认管理员单人标注。 启用时,可以指定参与标注的人员及标注数量。
导入文本文档数据。支持上传txt、doc、docx、pdf、ppt、pptx格式的文本文档,要求单个文件不超过10M。 导入表格数据。支持上传xlsx、xls、csv格式的表格数据,要求单个文件不超过10M。 单击“点此上传”上传本地文件至知识库。支持单次上传文件个数不超过300个。 上传
AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。 Token认证 Token在计算机系统中代表令牌(临时)的意思,拥有Token就代表拥有某种权限。Token认证就是在调用API的时候将Token加到请求消息头,从而通过身份认证,获得操作API的权限。
选择加工模板 清洗步骤编排完成后,单击右下角“启动清洗”,将启动清洗任务。 当数据清洗任务运行成功后,状态将从“运行中”变为“运行成功”,表示数据已经完成清洗。 在完成数据清洗后,如果无需使用数据合成与数据标注功能,可直接在“数据清洗”页面单击操作列“生成”,生成加工数据集。 加工后的数据集可在“数据工程
Unauthorized 在客户端提供认证信息后,返回该状态码,表明服务端指出客户端所提供的认证信息不正确或非法。 402 Payment Required 保留请求。 403 Forbidden 请求被拒绝访问。 返回该状态码,表明请求能够到达服务端,且服务端能够理解用户请求,但是拒绝
在“开发场景”中勾选需要订购的大模型(可多选),页面将根据勾选情况适配具体的订购项。 图1 选择开发场景 在“模型资产”页面,参考表1完成模型资产的订购。 表1 模型资产订购说明 模型分类 模型订阅 计费方式 NLP大模型 盘古-NLP-N1-基模型 盘古-NLP-N1-基础功能模型
角“创建插件”。 在“创建插件”页面,填写插件名称与插件描述,单击图片可上传插件图标,单击“下一步”。 在“配置信息”页面,参照表1完成信息配置。 表1 插件信息配置说明 参数名称 参数说明 插件URL 插件服务的请求URL地址。 URL协议只支持HTTP和HTTPS。 系统会校验URL地址是否为标准的URL格式。
和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 盘古NLP大模型规格 模型支持区域 模型名称 可处理最大上下文长度 可处理最大输出长度 说明 西南-贵阳一 Pangu-NLP-N1-Chat-32K-20241130
古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。 操作流程 使用盘古NLP大模型创建Python编码应用的流程见表1。 表1 用盘古NLP大模型创建Python编码应用 操作步骤 说明 步骤1:创建应用 本样例场景实现应用的创建。 步骤2:配置Prompt 本样例场景实现应用中的提示词配置。
"key": "value" } } ] } 单击Postman界面“Send”,发送请求。当接口返回状态为200时,表示应用API调用成功,响应示例如下: 提问器节点返回示例: { "conversation_id": "2c90493f-803d-
响应结束。 表5 流式输出的数据单元 参数 参数类型 描述 event String 数据单元类型,有以下几种类型: start,开始节点,表示开始调用模型进行会话。 message,消息节点,表示模型返回的消息。 plugin_start,插件调用请求节点,表示调用插件的请求信息。
Studio大模型开发平台为用户提供了多种规格的科学计算大模型,以满足不同场景和需求。以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 盘古科学计算大模型规格 模型支持区域 模型名称 说明 西南-贵阳一 Pangu-AI4S-Ocean_24h-20241130 2024
模型监控与迭代:部署后的模型需要持续监控其性能,并根据反馈进行定期更新或再训练。随着新数据的加入,模型可能需要进行调整,以保证其在实际应用中的表现稳定。 在应用阶段,除了将模型嵌入到具体业务流程中外,还需要根据业务需求不断对模型进行优化,使其更加精准和高效。 父主题: 基础知识
"temperature": 0.9, "max_tokens": 600 } 单击Postman界面“Send”按钮,发送请求。当接口返回状态为200时,表示NLP大模型API调用成功。
以提高训练效率。如果规模较大,那么可能需要较小的学习率和较小的批量大小,防止内存溢出。 这里提供了一些微调参数的建议值和说明,供您参考: 表1 微调参数的建议和说明 训练参数 范围 建议值 说明 训练轮数(epoch) 1~50 2/4/8/10 训练轮数是指需要完成全量训练数据
性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考: 表1 推理参数的建议和说明 推理参数 范围 建议值 说明 温度(temperature) 0~1 0.3 温度主要用于控制模型输出的随机性和创
"query": "预定15:00到16:00的A12会议室" } 单击Postman界面“Send”,发送请求。当接口返回状态为200时,表示应用API调用成功,响应示例如下: data:{"event":"start","data":{},"createdTime":1733821291867