检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
连接参数说明 关系数据库连接 OBS连接 HDFS连接 HBase连接 CloudTable连接 Hive连接 FTP/SFTP连接 MongoDB连接 Redis连接 Kafka连接 DIS连接 Elasticsearch/云搜索服务(CSS)连接 DLI连接 DMS Kafka连接
同步删除数据库里的物理表。 通过逆向数据库导入维度 通过逆向数据库,您可以从其他数据源中将一个或多个已创建的数据库表导入到维度目录中,使其变成维度。 在数据架构控制台,单击左侧导航树中的“维度建模”,进入维度建模页面。 在维度列表上方,单击“逆向数据库”。 在“逆向数据库”对话框中,配置如下参数,然后单击“确定”。
Hive和MRS Spark数据源,如果使用一套相同的集群资源,通过两个数据库(开发环境添加后缀“_dev”,生产环境无后缀)进行开发生产环境隔离,两套环境中数据库模式(仅DWS需要)和数据表必须保持同名。 数据库、数据库模式(仅DWS需要)、数据表等新建完成后,如果涉及原始数据表等,您
基本参数 redis键前缀 对应关系数据库的表名。 TABLENAME 值存储类型 存储类型分STRING、hash、list、set和zset。 STRING 写入前将相同的键删除 写入前是否将相同的键删除。 否 高级属性 键分隔符 用来分隔关系数据库的表和列名。 _ 值分隔符 以STRING方式存储,列之间的分隔符。
用户自定义参数,多个参数请以Enter键分隔。 应用程序参数支持全局变量替换。例如,在“全局配置”>“全局变量”中新增全局变量key为batch_num,可以使用{{batch_num}},在提交作业之后进行变量替换。 Spark作业运行参数 否 以“key/value”的形式设
端作业参数如表1所示。 表1 MongoDB作为目的端时的作业参数 参数名 说明 取值样例 数据库名称 选择待导入数据的数据库。 mddb 集合名称 选择待导入数据的集合,相当于关系数据库的表名。单击输入框后面的按钮可进入表的选择界面,用户也可以直接输入表名称。 如果选择界面没有
Hive、DLI、MRS ClickHouse、DORIS。 指标都是基于数据连接的,所以在建立指标之前需要先到元数据管理模块中建立数据连接。 数据库/队列 选择指标运行的数据库。 说明: 当数据源为DLI时,需要选择运行的队列。 描述 为更好的识别业务指标 ,此处加以描述信息。描述信息长度不能超过4096个字符。
格式为yyyy-MM-dd HH:mm:ss,支持配合DLF变量等方式设置 2024-07-25 00:00:00 结束时间 消费记录策略为起始时间时须设置结束时间。 格式为yyyy-MM-dd HH:mm:ss,支持配合DLF变量等方式设置 2024-07-25 23:59:59 等待时间
String 数据库名称。 table_name 否 String 表名称。 data_connection_score_order 否 String 数据连接评分排序,0表示升序,1表示降序,与其他排序条件互斥。 database_score_order 否 String 数据库评分排
单击集群名称,进入集群基本信息页面。 在数据库属性标签中可以获取到端口信息。 例如8000,默认值为空。 userName 是 String 数据库的用户名,创建DWS集群的时输入的用户名。 password 是 String 数据库的访问密码,创建DWS集群的时候输入的密码。
回滚内容包括: DLI:数据连接、数据库、资源队列、脚本内容。 DWS:数据连接、数据库、脚本内容。 HIVE:数据连接、数据库、资源队列、脚本内容。 SPARK:数据连接、数据库、脚本内容。 SHELL:主机连接、参数、交互式参数、脚本内容。 RDS:数据连接、数据库、脚本内容。 PRESTO:数据连接、模式、脚本内容。
选择目的表所属的资源队列。 DLI的default队列无法在迁移作业中使用,您需要在DLI中新建SQL队列。 新建队列操作请参考创建队列。 cdm 数据库名称 写入数据的数据库名称。 dli 表名 写入数据的表名。 car_detail 导入模式 选择导入模式。 TRUNCATE方式:会在导入前执行。
values。 原因分析 DWS数据库为oracle兼容模式时,会将空字符串视为NULL做处理,因此在有数据的场景下,不能添加默认值为空串的非空列。 解决方案 1. 修改源端DDL语句,新增列的默认值设置为非空字符串。 2. 如果无法修改DDL,则需要将DWS的数据库更换为mysql兼容模式,建库语句如:
当节点属性中子作业参数配置为空时,子作业使用自身参数变量执行。父作业的“子作业参数名称”不显现。 当节点属性中子作业参数配置了数据时,子作业将使用配置参数变量执行。此时父作业的“子作业参数名称”显现,并且节点属性中子作业参数配置的数据或者EL表达式,将根据父作业的环境变量读取替换。 表2 高级参数 参数
数据迁移进阶实践 增量迁移原理介绍 时间宏变量使用解析 事务模式迁移 迁移文件时加解密 MD5校验文件一致性 字段转换器配置指导 新增字段操作指导 指定文件名迁移 正则表达式分隔半结构化文本 记录数据迁移入库时间 文件格式介绍 不支持数据类型转换规避指导
规则。 通过逆向数据库导入事实表 通过逆向数据库,您可以从其他数据源中将一个或多个已创建的数据库表导入到事实表目录中,使其变成事实表。 在数据架构控制台,单击左侧导航树中的“维度建模”,进入维度建模页面。 在事实表的列表上方,单击“逆向数据库”。 在“逆向数据库”对话框中,配置如下参数,然后单击“确定”。
“作业类型”选择“Flink SQL作业”,“脚本路径”选择刚创建的Flink SQL脚本。 选择脚本后,脚本里面引用的脚本模板参数及参数值会自动展示出来,如下图所示。 图2 引用fink sql脚本 在pipeline作业开发中,在MRS Flink Job节点的“运行程序参数”里面引用参数模板。
useCursorFetch=false:CDM作业默认打开了JDBC连接器与关系型数据库通信使用二进制协议开关,即useCursorFetch=true。部分第三方可能存在兼容问题导致迁移时间转换出错,可以关闭此开关;开源MySQL数据库支持useCursorFetch参数,无需对此参数进行设置。 数据源认证及其他功能配置
文件存储格式:Parquet、TextFile、SequenceFile。 OBS存储路径:指定OBS文件存储的路径。 支持填写#{source_topic_name}内置变量,可将源端不同的topic的数据写入不同的路径下。例如:obs://bucket/dir/test.db/prefix_#{source_
否:关闭时能提升写入性能,但如果HBase服务器宕机可能会造成数据丢失。 toJobConfig.transType 否 Boolean true:源端数据库中的Short、Int、Long、Float、Double、Decimal类型列的数据,会转换为Byte[]数组(二进制)写入HBase,