检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DLI SQL 功能 通过DLI SQL节点传递SQL语句到DLI SQL中执行,实现多数据源分析探索。 原理 该节点方便用户在数据开发模块的周期与实时调度中执行DLI相关语句,可以使用参数变量为用户的数仓进行增量导入,分区处理等动作。 参数 用户可参考表1,表2和表3配置DLI
创建采集任务 功能介绍 创建采集任务。 调用方法 请参见如何调用API。 URI POST /v3/{project_id}/metadata/tasks/create 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。
配置DIS源端参数 消息体中的数据是一条类似CSV格式的记录,可以支持多种分隔符。不支持二进制格式或其他格式的消息内容解析。 作业中源连接为DIS连接时,源端作业参数如所表1示。 表1 DIS作为源端时的作业参数 参数类型 参数 说明 取值样例 基本参数 DIS通道 DIS的通道名。
编辑采集任务 功能介绍 编辑采集任务。 调用方法 请参见如何调用API。 URI PUT /v3/{project_id}/metadata/tasks/{task_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。
符。如“/blogs/{blog_id}”表示/blogs后可以携带任何参数,例如“/blogs/188138”和“/blogs/0”均会匹配至/blogs/{blog_id},由此API统一处理。 此外,相同域名下,不允许重复的请求路径出现。路径参数作为通配符时,名称不具备唯一
查询采集任务详情 功能介绍 查询采集任务详情。 调用方法 请参见如何调用API。 URI GET /v3/{project_id}/metadata/tasks/{task_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。
和数据服务等,性价比首选。 企业版 有完善的数据管理团队和体系,中大型企业规模,需要进行企业信息架构、数据标准、数据模型、数据指标的落地,匹配完整的DAYU数据治理方法论。 旧版本模式 初级版 建设初期数据湖项目,无全职数据开发人员、不涉及数据治理。 基础版 拥有1~2名全职数据
配置Redis源端参数 第三方云的Redis服务无法支持作为源端。如果是用户在本地数据中心或ECS上自行搭建的Redis支持作为源端或目的端。 作业中源连接为从本地Redis导出的数据时,源端作业参数如表1所示。 表1 Redis作为源端时的作业参数 参数类型 参数名 说明 取值样例
Integer 查询起始坐标, 即跳过前X条数据。仅支持0或LIMIT的整数倍,不满足则向下取整。 name 否 String 应用名称,该参数为模糊匹配。 app_type 否 String 应用类型。 枚举值: APP:APP类型应用 IAM:IAM类型应用 APIG:APIG应用(已废弃)
配置Redis目的端参数 当作业将数据导入到Redis时,目的端作业参数如表1所示。 表1 Redis作为目的端时的作业参数 参数名 说明 取值样例 Redis键前缀 键的前缀,类似关系型数据库的表名。 TABLE 值存储类型 仅支持以下数据格式: STRING:不带列名,如“值1,值2”形式。
通过CDM节点批量创建分表迁移作业 适用场景 业务系统中,数据源往往会采用分表的形式,以减少单表大小,支持复杂的业务应用场景。 在这种情况下,通过CDM进行数据集成时,需要针对每张表创建一个数据迁移作业。您可以参考本教程,通过数据开发模块的For Each节点和CDM节点,配合作业参数,实现批量创建分表迁移作业。
Hive的版本。根据服务端Hive版本设置。 说明: HIVE_3_X支持Hive服务端版本为3.x的连接,HIVE_2_X支持Hive服务端版本为2.x的连接。使用不匹配的连接版本,测试连接有可能正常,也可能会出现查询库表为空,或者作业失败等不正常场景。 运行模式 EMBEDDED “HIVE_3_X”版本支持该参数。支持以下模式:
Hive的版本。根据服务端Hive版本设置。 说明: HIVE_3_X支持Hive服务端版本为3.x的连接,HIVE_2_X支持Hive服务端版本为2.x的连接。使用不匹配的连接版本,测试连接有可能正常,也可能会出现查询库表为空,或者作业失败等不正常场景。 运行模式 EMBEDDED “HIVE_3_X”版本支持该参数。支持以下模式:
配置Kafka源端参数 表1 Kafka作为源端时的作业参数 参数类型 参数 说明 取值样例 基本参数 Topic 主题名称。支持单个topic。 cdm_topic 数据格式 解析数据时使用的格式: JSON:以JSON格式解析源数据。 CSV格式:以CSV格式解析源数据。 JSON格式
limit 否 Integer 查询条数限制。 offset 否 Integer 查询起始坐标。 name 否 String 集群名称,该参数为模糊匹配。 create_user 否 String 创建人名称。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
进行结算(资源包对应多个集群时,会出现每月订购周期内可使用时长不足的情况)。 例如购买了1个月的套餐包(745小时/月),按区域和实例规格匹配到两个CDM集群后,从当前开始的1个月订购有效期内,两个集群同时使用只能使用745/2=372.5小时,约15.5天,剩余时间内两个集群按照按需计费的方式结算费用。
DATA_UPDATED 数据存在更新 sync_msg String 策略同步信息。 sync_log String 同步运行日志, 格式为 字段同步信息+换行符。 create_time Long 策略创建时间。 create_user String 策略创建者。 update_time Long
DATA_UPDATED 数据存在更新 sync_msg String 策略同步信息。 sync_log String 同步运行日志, 格式为 字段同步信息+换行符。 create_time Long 策略创建时间。 create_user String 策略创建者。 update_time Long
无血缘关系表查询 功能介绍 无血缘关系表查询,请求参数type_names、classification、type_names、connection_names、query需至少指定一个。 调用方法 请参见如何调用API。 URI POST /v3/{project_id}/li
添加或修改资产 功能介绍 添加或修改资产。 调用方法 请参见如何调用API。 URI POST /v3/{project_id}/asset 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。 请求参数