数据湖探索 DLI-开源Kafka输出流:关键字
关键字
参数 |
是否必选 |
说明 |
---|---|---|
type |
是 |
输出通道类型,"kafka"表示输出到Kafka中。 |
kafka_bootstrap_servers |
是 |
Kafka的连接端口,需要确保能连通(需要通过增强型跨源开通 DLI 队列和Kafka集群的连接)。 |
kafka_topic |
是 |
写入的topic |
encode |
是 |
数据编码格式,可选为“csv”、“json”和“user_defined”。
|
filed_delimiter |
否 |
当encode为csv时,用于指定各字段分隔符,默认为逗号。 |
encode_class_name |
否 |
当encode为user_defined时,需配置该参数,指定用户自实现编码类的类名(包含完整包路径),该类需继承类DeserializationSchema。 |
encode_class_parameter |
否 |
当encode为user_defined时,可以通过配置该参数指定用户自实现编码类的入参,仅支持一个string类型的参数。 |
kafka_properties |
否 |
可通过该参数配置kafka的原生属性,格式为"key1=value1;key2=value2" |
kafka_certificate_name |
否 |
跨源认证信息名称。跨源认证信息类型为“Kafka_SSL”时,该参数有效。
说明:
|
- 什么是数据湖探索服务_数据湖探索DLI用途与特点
- 什么是Flink OpenSource SQL_数据湖探索_Flink OpenSource SQL
- 分布式消息系统Kafka_分布式消息系统_分布式消息kafka可以解决什么问题-华为云
- 什么是Spark SQL作业_数据湖探索DLISpark SQL作业
- 日志搜索_日志搜索工具_日志搜索平台
- kafka是什么_kafka介绍_分布式消息服务Kafka版
- Kafka架构_Kafka如何实现负载均衡_Kafka数据存储方式-华为云
- 什么是日志服务_日志平台_日志分析
- 大数据应用范围有哪些_大数据技术与应用要学习什么课程
- 什么是跨源连接-数据湖探索DLI跨源连接