数据湖探索 DLI-从Kafka读取数据写入到Elasticsearch:整体作业开发流程
整体作业开发流程
步骤1:创建队列:创建 DLI 作业运行的队列。
步骤2:创建Kafka的Topic:创建Kafka生产消费数据的Topic。
步骤3:创建Elasticsearch搜索索引:创建Elasticsearch搜索索引用于接收结果数据。
步骤4:创建增强型跨源连接:DLI上创建连接Kafka和 CSS 的跨源连接,打通网络。
步骤5:运行作业:DLI上创建和运行Flink OpenSource作业。
步骤6:发送数据和查询结果:Kafka上发送流数据,在 CS S上查看运行结果。
- 什么是数据湖探索服务_数据湖探索DLI用途与特点
- 什么是Flink OpenSource SQL_数据湖探索_Flink OpenSource SQL
- 什么是弹性资源池_数据湖探索DLI弹性资源池
- 什么是Spark SQL作业_数据湖探索DLISpark SQL作业
- Kafka与其他消息队列的对比_什么是Kafka_分布式消息系统-华为云
- 什么是跨源连接-数据湖探索DLI跨源连接
- 应用运维管理使用场景_应用运维管理_AOM-华为云
- 大数据应用范围有哪些_大数据技术与应用要学习什么课程
- 分布式消息系统Kafka_分布式消息系统_分布式消息kafka可以解决什么问题-华为云
- 分布式消息服务优势_分布式消息服务_消息队列-华为云