检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HTML内容提取 基于标签路径提取HTML数据内容,并将其他与待提取标签路径无关的内容删除。 电子书内容提取 从电子书中提取出所有文本内容。 智能文档解析 从PDF(支持扫描版)或图片中提取文本,转化为结构化数据,持文本、表格、表单、公式等内容提取。 数据转换 个人数据脱敏 对文本中
该标准或在该标准的基础上创建评估标准。 若您希望使用平台预置的评估标准,可跳过此章节至创建图片类数据集评估任务。 创建图片类数据集评估标准步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据评估
数据集发布场景介绍 数据发布概念 数据发布是指将经过加工、标注、评估的数据集导出并生成符合特定任务或模型训练需求的正式数据集。数据发布是数据处理流程中的关键步骤,也是数据集构建的最终环节。 数据发布过程不仅包括将数据转化为适合使用的格式,还要求根据任务需求对数据集的比例进行科学调整,确保数据集在规模、质量和内容上满足模型训练的标准。
盘古格式:训练盘古大模型时,需要将数据集格式发布为“盘古格式”。 自定义格式:文本类数据集可以使用自定义脚本进行数据格式转换。 发布文本类数据集操作步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据
盘古格式:训练盘古大模型时,需要将数据集格式发布为“盘古格式”。 自定义格式:文本类数据集可以使用自定义脚本进行数据格式转换。 发布图片类数据集操作步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据
数据评估旨在通过对数据集进行系统的质量检查,评估其准确性、完整性、一致性和代表性等多个维度,发现潜在问题并加以解决。 在构建和使用数据集的过程中,数据评估是确保数据质量的关键步骤,直接影响模型的性能和应用效果。高质量的数据集能够显著提升模型的准确性,并增强模型在实际应用中的可靠性与稳定性。因此,数据评估是数据工程中
型寻找更多样化的输出。 提示词工程相关概念 表4 提示词工程相关概念说明 概念名 说明 提示词 提示词(Prompt)是一种用于与AI人工智能模型交互的语言,用于指示模型生成所需的内容。 思维链 思维链 (Chain-of-Thought)是一种模拟人类解决问题的方法,通过一系列
cts”,其中{Endpoint}为IAM的终端节点,可以从地区和终端节点获取。接口的认证鉴权请参见认证鉴权。 响应示例如下,例如,对话机器人服务部署的区域为“cn-north-4”,响应消息体中查找“name”为“cn-north-4”,其中projects下的“id”即为项目ID。
Agent后,可通过单击Insight查看该Agent的执行信息。当前仅支持对知识性应用进行观测和调试。 前提条件 已成功创建应用。 操作步骤 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent开发”,将跳转至Agent开发平台。
创建盘古多语言文本翻译工作流流程 操作步骤 说明 步骤1:创建并配置插件 本样例场景实现文本翻译插件的创建与配置。 步骤2:创建并配置工作流 本样例场景实现多语言文本翻译工作流的创建与配置。 步骤3:试运行工作流 本样例场景实现工作流的试运行。 步骤1:创建并配置插件 登录ModelArts
对于无样本的任务,可以采用让模型分步思考的方法来分解复杂推理或数学任务,在问题的结尾可以加上“分步骤解决问题”或者“让我们一步一步地思考”,以引导大模型进行逐步的推理和解答。 通过上述指令,将一个推理任务拆解分步骤进行,可以降低推理任务的难度并可以增强答案可解释性。另外,相比直接输出答案,分步解
配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致IAM用户无法使用盘古服务API、SDK。 图7 配置用户基本信息 将用户添加至创建用户组步骤中创建的用户组,单击“创建用户”,完成IAM用户的创建。 图8 加入用户组 添加盘古子用户至工作空间 在添加盘古子用户至工作空间前,请先完成创建盘古子用户。
者可通过拖、拉、拽可视化组件等方式添加更多的组件,实现复杂业务流程的编排,从而快速构建Agent。 工作流方式主要面向目标任务包含多个复杂步骤、对输出结果成功率和准确率有严格要求的复杂业务场景。 父主题: 创建与管理工作流
参考图4填写2个请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-Auth-Token,参数值为步骤3中获取的Token值。 图4 填写NLP大模型API 在Postman中选择“Body > raw”选项,参考以下代码填写请求Body。
700、600、500、400、300、250、200、150、100、50hPa高空层次)0点、6点、12点、18点时刻的数据文件,下载步骤示例如下: 注册并登录数据下载平台,在高空变量数据下载链接中: Product type选择Reanalysis。 Variable新选择
指每训练一定数量的步骤(或批次)后,模型的状态就会被保存下来。 可以通过token_num = step * batch_size * sequence公式进行预估。其中: token_num:已训练的数据量。 step:已完成的训练步数。 batch_size:每个训练步骤中使用的样本数据量。
明需要逻辑清晰、无歧义。 设计任务要求 要求分点列举: 要求较多时需要分点列举,可以使用首先\然后,或1\2\3序号分点提出要求。每个要求步骤之间最好换行(\n)分隔断句,单个要求包含一项内容,不能太长。 正负向要求分离: 正负向要求不要掺杂着写,可以先全部列完正向要求,再列负向
通过浏览器访问报错的URL链接,根据页面告警提示对链接进行安全认证。认证完成后,只要不清理浏览器缓存,对相同桶域名的访问都不会被拦截。 创建原始数据集步骤如下: 登录ModelArts Studio大模型开发平台,进入操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据获取”,单击界面右上角“创建原始数据集”。
headers=headers, data=payload) print(response.headers["X-Subject-Token"]) 获取Token步骤: 本示例中,通过使用Postman软件获取Token。 登录“我的凭证 > API凭证”页面,获取user name、domain name、project
特点且可以引导观众购买。 微调数据清洗: 下表中列举了本场景常见的数据质量问题以及相应的清洗策略,供您参考: 表1 微调数据清洗步骤 数据问题 清洗步骤与手段 清洗前 清洗后 问题一:数据中存在超链接、异常符号等。 删除数据中的异常字符。 {"context":"轻便折叠户外椅,