数据湖探索 DLI-Flink作业支持的数据源和输出通道

时间:2024-08-27 16:21:34

Flink作业支持的数据源和输出通道

创建Flink作业需要输入数据源和数据输出通道,即常说的Source和Sink。用户使用其他服务作为数据源或输出通道时,需要先开通相应服务。

Flink作业支持以下数据源和输出通道:

  • DIS数据源和输出通道

    如果用户作业需要DIS作为数据源和输出通道时,则要先开通 数据接入服务 (DIS)。

    用户如何开通DIS服务,具体操作请参见《数据接入服务用户指南》中的开通DIS通道章节。

    申请DIS通道后,用户可以将本地数据通过DIS通道不断上传至DIS服务,实现向Flink作业提供实时流数据源,具体操作请参见《数据接入服务用户指南》中的发送数据到DIS服务章节。

    样例数据如下所示:

    1,lilei,bmw320i,28
    2,hanmeimei,audia4,27
  • OBS数据源

    如果用户作业需要 对象存储服务 (OBS)作为数据源,则要先开通OBS服务,具体操作请参见《对象存储服务控制台指南》中的开通OBS服务章节。

    开通OBS服务后,用户需要将本地文件通过Internet上传至OBS指定的位置,具体操作请参见《对象存储服务控制台指南》中的上传文件章节。

  • RDS输出通道

    如果用户作业需要RDS作为输出通道,需要创建RDS实例,具体操作请参见《关系型数据库快速入门》“购买实例”章节。

  • SMN 输出通道

    如果用户作业需要SMN作为输出通道,需要先在SMN中创建主题,获取URN资源标识,再添加订阅。具体操作请参见 消息通知 服务快速入门》。

  • Kafka数据源和输出通道

    如果用户作业需要Kafka作为数据源和输出通道,则必须要通过创建增强型跨源连接与Kafka进行对接,具体操作请参见增强型跨源连接

    如果Kafka服务端的端口监听在hostname上,则需要将Kafka Broker节点的hostname和ip的对应关系添加到跨源连接中。

  • CloudTable数据源和输出通道

    如果用户作业需要CloudTable作为数据源和输出通道,需要先在CloudTable中创建集群,获取集群ID。具体操作请参见 表格存储服务 用户指南》《 表格存储 服务用户指南》中的入门章节。

  • 云搜索服务 输出通道

    如果用户作业需要 云搜索 服务作为输出通道,需要先在云搜索服务中创建集群,获取集群内网访问地址。具体操作请参见《云搜索服务用户指南》中的入门章节。

  • D CS 输出通道

    如果用户作业需要DCS作为输出通道,需要先在DCS中创建Redis类型的缓存实例,获取Redis实例连接地址。具体操作请参见购买Redis实例

support.huaweicloud.com/usermanual-dli/dli_01_0454.html