检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
'print' ); insert into printSink select * from orders; 向Kafka的相应topic中发送如下数据: {"order_id":"202103241000000001", "order_channel":"webShop", "o
通性根据Redis的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。 登录Redis客户端,通过如下命令向Redis发送如下数据: HMSET 330102 area_province_name a1 area_province_name b1 area_county_name
件。 Flink版本:1.10 图7 创建Flink Jar作业 结果校验。 作业处于运行中状态时,向kafka source.topic发送数据,验证kafka sink.topic能否收到数据。 图8 查看作业任务 图9 查看kafka sink.topic JAVA样例代码
性根据Redis的地址测试队列连通性。如果能连通,则表示跨源已经绑定成功,否则表示未成功。 登录Redis客户端,通过如下命令向Redis发送如下数据: HMSET 330102 area_province_name a1 area_province_name b1 area_county_name
通性根据Redis的地址测试队列连通性。若能连通,则表示跨源已经绑定成功,否则表示未成功。 登录Redis客户端,通过如下命令向Redis发送如下数据: HMSET 330102 area_province_name a1 area_province_name b1 area_county_name
compression.ratio 随着记录从日志文件移动到parquet,预期会进行额外压缩的比例。 用于merge_on_read存储,以将插入内容发送到日志文件中并控制压缩parquet文件的大小。 0.35 compaction&cleaning配置 表5 compaction&cleaning参数配置
'json' ); insert into kafkaSink select * from kafkaSource; 向Kafka的源表的topic中发送如下数据,Kafka topic为kafkaSource。 具体操作可参考:Kafka客户端接入示例。 {"order_id":"202103241000000001"
useSSL' = 'false'. heartbeat.interval 否 30s Duration 用于跟踪最新可用 binlog 偏移的发送心跳事件的间隔。 debezium.* 否 无 String 将 Debezium 的属性传递给 Debezium 嵌入式引擎,该引擎用于从