检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作业配置 在源端、目的作业配置区域,单击“显示高级属性”,在“高级属性”中,系统提供了默认值,请根据实际业务数据的格式设置各项参数。 例如,本例中根据数据源准备中的样例数据格式,源端高级属性需注意以下参数的设置,其他参数均保留默认值即可,如图8所示。目的端高级属性无需配置。 字段分隔符:默认值为逗号,本示例需要保留默认值。
调度周期,1表示分钟,2表示小时,3表示天,4表示周,5表示月。 start_time 否 String 开始时间(搜索),格式 yyyy-MM-dd HH:mm:ss。 end_time 否 String 结束时间(搜索),格式 yyyy-MM-dd HH:mm:ss。 result_status 否 Integer
planTime表示作业计划时间,yyyy-MM-dd表示时间格式。 如果作业计划时间三月二号,减去一天就是三月一号。补数据时,配置的补数据的业务日期就会替换作业计划时间。 Job.planTime会把作业计划时间通过表达式转化为yyyy-MM-dd格式的时间。 配置补数据作业的调度周期。单击界面
字段映射样例:源端配置使用SQL语句为是时不显示该参数,查看源端和目的端样例数据。 文件类数据源(FTP/SFTP/HDFS/OBS)之间相互迁移数据,且源端“文件格式”配置为“二进制格式”(即不解析文件内容直接传输),没有字段映射这一步骤。 整库迁移没有配置字段映射关系这一步骤。 迁移过程中可能存在源端与目标端字
name 是 String 规则名称;rule_type为CUSTOM时用户可自定义名称,rule_type为BUILTIN时输入的名称需要和内置模板中的名称一致。 method 否 String 规则方式, REGULAR, NONE, DEFAULT, COMBINE content_expression
需要同步的数据库操作 支持同步的数据库操作包括DDL和DML,可单选或多选,不选择的情况下默认同步所有操作。 投递到Kafka的数据格式 选择投递到Kafka的数据组织格式,当前支持Debezium JSON和Canal JSON。 高级配置 支持在作业“任务配置”中添加自定义属性来开启部分
是否是标头。 data_type 否 String 数据类型。 date_format 否 String 数据格式。 timestamp_format 否 String 时间格式。 null_value 否 String 为空时默认值。 comment 否 String 注解。 parse_mode
region String 局点名称。 created String 实例创建时间,格式为ISO8601:YYYY-MM-DDThh:mm:ssZ。 updated String 实例更新时间,格式为ISO8601:YYYY-MM-DDThh:mm:ssZ。 name String
time_format]): 将unix时间戳按time_format格式化。 unix_timestamp(#col[, precision, time_format]): 将时间转成unix时间戳, 可显式定义时间格式及转换后精度。 自动建表:单击“自动建表”可按照已配置映射规则在
result.saveAsTextFile(outputPath) #停止SparkContext sc.stop() 需要将编码格式设置为“UTF-8”,否则后续脚本运行时会报错。 准备数据文件“in.txt”,内容为一段英文单词。 操作步骤: 将脚本和数据文件传入OBS桶中,如下图。
默认为记录迁移。仅当源端为Hive2.x且数据存储在HDFS、目的端为Hive3.x且数据存在OBS并行文件系统时,才支持文件迁移。 当选择文件迁移时,需保证源端和目的端的表格式和属性需一致才能迁移成功。 记录迁移 文件迁移 分区过滤条件 “读取方式”选择“HDFS”时显示此参数。 该参数表示抽取指定值的parti
重新选择连接器。修改连接时,需要重新输入数据源的登录密码。 测试连通性:支持直接测试已保存连接的连通性。 查看连接JSON:以JSON文件格式查看连接参数的配置。 编辑连接JSON:以直接修改JSON文件的方式,修改连接参数。 查看后端连接:查看该连接对应的后端连接。例如已开启后
time_format]): 将unix时间戳按time_format格式化。 unix_timestamp(#col[, precision, time_format]): 将时间转成unix时间戳, 可显式定义时间格式及转换后精度。 自动建表:单击“自动建表”可按照已配置映射规则在
create_time String 创建时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即yyyy-mm-ddTHH:MM:SSZ,如1970-01-01T00:00:00Z。 update_time String 更新时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即
create_time String 创建时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即yyyy-mm-ddTHH:MM:SSZ,如1970-01-01T00:00:00Z。 update_time String 更新时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即
workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Content-Type 否 String 消息体的类型(格式),有Body体的情况下必选,没有Body体无需填写。如果请求消息体中含有中文字符,则需要通过charset=utf8指定中文字符集,例如
Hudi建表参数 Location 存储在OBS或HDFS上数据库表的文件路径。 - Hudi表类型 Hudi表存储类型。 MOR表:数据先写入avro格式的日志文件,读取时合并到parquet文件。 COW表:数据直接写入parquet文件。 MOR Hudi表主键 对Hudi建表设置主键,多个值以逗号隔开。
是否使用集群配置开关打开时显示该参数。 运行模式选择“EMBEDDED”、“STANDALONE”时,该参数有效。 如果HDFS配置文件使用主机名,需要配置IP与主机的映射。格式:IP与主机名之间使用空格分隔,多对映射使用分号或回车换行分隔。 KMS密钥 是 通过KMS加密和解密用户密码和密钥对的密码,选择KMS中已创建的密钥。
create_time String 创建时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即yyyy-mm-ddTHH:MM:SSZ,如1970-01-01T00:00:00Z。 update_time String 更新时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即
create_time String 创建时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即yyyy-mm-ddTHH:MM:SSZ,如1970-01-01T00:00:00Z。 update_time String 更新时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即