检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作业参数配置完成后,拖拽图标将作业进行关联,然后单击“保存”,作业配置完成。 在“作业管理”的作业列表中,找到创建的作业名称,单击操作列的“启动”,等待作业启动。 观察数据传输是否生效,例如在PgSQL数据库中对表进行插入数据操作,查看Hudi导入的文件内容。 父主题: 创建CDL作业
方案优势 简单易用:免编程,向导式任务开发界面,通过简单配置几分钟即可完成迁移任务开发。 迁移效率高: 基于分布式计算框架进行数据任务执行和数据传输优化,并针对特定数据源写入做了专项优化,迁移效率高。 实时监控:迁移过程中可以执行自动实时监控、告警和通知操作。 约束与限制 搬迁数据量较
cls) 为Job设置一个Combiner类。 Copy阶段的调优 数据是否压缩: 对Map的中间结果进行压缩,当数据量大时,会显著减少网络传输的数据量,但是也因为多了压缩和解压,带来了更多的CPU消耗。因此需要做好权衡。当任务属于网络瓶颈类型时,压缩Map中间结果效果明显。针对b
cls) 为Job设置一个Combiner类。 Copy阶段的调优 数据是否压缩: 对Map的中间结果进行压缩,当数据量大时,会显著减少网络传输的数据量,但是也因为多了压缩和解压,带来了更多的CPU消耗。因此需要做好权衡。当任务属于网络瓶颈类型时,压缩Map中间结果效果明显。针对b
作业参数配置完成后,拖拽图标将作业进行关联,然后单击“保存”,作业配置完成。 在“作业管理”的作业列表中,找到创建的作业名称,单击操作列的“启动”,等待作业启动。 观察数据传输是否生效,例如在Oracle数据库中对表进行插入数据操作,查看Hudi导入的文件内容。 父主题: 创建CDL作业
后缀名 源文件导入成功后对输入文件增加的后缀值。该值为空,表示不加后缀。 .log 设置数据转换 单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 CSV文件输入 ClickHouse输出
作业参数配置完成后,拖拽图标将作业进行关联,然后单击“保存”,作业配置完成。 在“作业管理”的作业列表中,找到创建的作业名称,单击操作列的“启动”,等待作业启动。 观察数据传输是否生效,例如在opengauss数据库中对表进行插入数据操作,查看Hudi导入的文件内容。 父主题: 创建CDL作业
作业参数配置完成后,拖拽图标将作业进行关联,然后单击“保存”,作业配置完成。 在“作业管理”的作业列表中,找到创建的作业名称,单击操作列的“启动”,等待作业启动。 观察数据传输是否生效,例如在drs-avro-oracle数据库中对表进行插入数据操作,查看Hudi导入的文件内容。 父主题: 创建CDL作业
这些偏移量信息也被可靠地存储在checkpoint文件中,应用失败重启时可以直接读取偏移量信息。 图1 Direct Kafka接口数据传输 需要注意的是,Spark Streaming可以在失败后重新从Kafka中读取并处理数据段。然而,由于语义仅被处理一次,重新处理的结果和没有失败处理的结果是一致的。
后缀名 源文件导入成功后对输入文件增加的后缀值。该值为空,表示不加后缀。 .log 设置数据转换 单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 CSV文件输入 HBase输出
后缀名 源文件导入成功后对输入文件增加的后缀值。该值为空,表示不加后缀。 .log 设置数据转换 单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考Loader算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 CSV文件输入
后缀名 源文件导入成功后对输入文件增加的后缀值。该值为空,表示不加后缀。 .log 设置数据转换 单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考Loader算子帮助及表2。 表2 算子输入、输出参数设置 输入类型 输出类型 CSV文件输入
0 : 1); } 样例4:类CollectionCombiner实现了在map端先合并map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public static class CollectionCombiner
以上方式的最大问题在于,由于数据分散在各节点上,所以在Map到Reduce过程中,需要大量的网络数据传输,使得Join计算的性能大大降低,该过程如图1所示: 图1 无同分布数据传输流程 由于数据表文件是以HDFS Block方式存放在物理文件系统中,如果能把两个需要Join的文件数据块按Join
1); } 样例4:类CollectionCombiner实现了在map端先合并一下map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public static class CollectionCombiner
0 : 1); } 样例4:类CollectionCombiner实现了在map端先合并map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public static class CollectionCombiner
例如执行以下命令连接HBase数据源: hetu-cli --catalog hbase --schema default 执行以下命令,可正常查看数据库表信息或不报错即表示连接成功。 show tables; 步骤4:准备数据 准备IoTDB数据。 以客户端安装用户登录安装客户端的节点,执行以下命令配置环境变量并认证用户:
1); } 样例4:类CollectionCombiner实现了在map端先合并一下map输出的数据,减少map和reduce之间传输的数据量。 /** * Combiner class */ public static class CollectionCombiner
rpc.port”的参数值。 “DBroker IP地址”:填写一个本集群DBroker角色的业务平面IP地址,该DBroker将用于恢复时传输数据。 “源端路径”:参考2中获取的“备份路径”,填写备集群保存备份数据的完整HDFS路径。例如,“备份路径/备份任务名_数据源_任务创建时间/”。
rpc.port”的参数值。 “DBroker IP地址”:填写一个本集群DBroker角色的业务平面IP地址,该DBroker将用于备份时传输数据。 “目的端路径”:填写备集群保存备份数据的HDFS目录。不支持填写HDFS中的隐藏目录,例如快照或回收站目录;也不支持默认的系统目录