-
MRS OpenTSDB输出流 - 数据湖探索 DLI
ttps://ip:port。 说明: 配置项tsd.https.enabled为true时,需要使用https,注意https暂时不支持证书认证。 tsdb_metrics 是 数据点的metric,支持参数化。 tsdb_timestamps 是 数据点的timestamp,
-
ClickHouse - 数据湖探索 DLI
以避免ClickHouseBalancer实例单点故障。 MRS集群开启开启Kerberos认证时,还需要在url中加上ssl、sslmode请求参数,将ssl设为true,sslmode设为none,示例见示例2。 table-name 是 无 String ClickHouse的表名。
-
PowerBI工具对接DLI Trino - 数据湖探索 DLI
properties”文件。 properties文件内容示例: SSL=true user=xxx_d21/xx_352221/xxxxacc00a2e2 password=xxxx12* 数据连接的URL中ssl=true表示后端请求使用HTTPS方式,当前Trino引擎队列仅支持HTTPS协议方式。
-
创建DLI表关联CSS - 数据湖探索 DLI
已经插入到es中,这部分为冗余数据。如果设置了Document id,则在重新执行DLI作业时,会覆盖上一次的冗余数据。 es.net.ssl 连接安全CSS集群,默认值为false es.certificate.name 连接安全CSS集群,使用的跨源认证信息名称。跨源认证信息
-
创建DLI表关联CSS - 数据湖探索 DLI
已经插入到es中,这部分为冗余数据。如果设置了Document id,则在重新执行DLI作业时,会覆盖上一次的冗余数据。 es.net.ssl 连接安全CSS集群,默认值为false es.certificate.name 连接安全CSS集群,使用的跨源认证信息名称。跨源认证信息
-
约束与限制 - 数据湖探索 DLI
4”及以上版本的CSS集群且集群已开启安全模式。 Kerberos类型的跨源认证:适用于开启Kerberos认证的MRS安全集群。 Kafka_SSL类型的跨源认证:适用于开启SSL的Kafka。 Password类型的跨源认证:适用于DWS、RDS、DDS、DCS数据源。。 更多跨源认证约束限制请参考跨源认证简介。
-
Kafka源表 - 数据湖探索 DLI
功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。 注意事项 对接的Kafka集群不支持开启SASL_SSL。 语法格式 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 create table kafkaSource(
-
Kafka源表 - 数据湖探索 DLI
功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。 注意事项 对接的Kafka集群不支持开启SASL_SSL。 语法格式 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 create table kafkaSource(
-
FineBI工具对接DLI Trino - 数据湖探索 DLI
账号连接,则前两者都为账号名。 数据连接URL填写示例:jdbc:presto://{ip}/dli/default?SSL=true。 数据连接的URL中ssl=true表示后端请求使用HTTPS方式,当前Trino引擎队列仅支持HTTPS协议方式。 图14 配置信息 步骤5:测试连接
-
Elasticsearch结果表 - 数据湖探索 DLI
证的名称。请注意该场景hosts字段值以https开头。 方法2:不使用跨源认证,但需要配置用户名username、密码password、证书位置certificate。请注意该场景hosts字段值以https开头。 CSS集群安全组入向规则必须开启ICMP。 数据类型的使用,请参考Format章节。
-
Elasticsearch结果表 - 数据湖探索 DLI
证的名称。请注意该场景hosts字段值以https开头。 方法2:不使用跨源认证,但需要配置用户名username、密码password、证书位置certificate。请注意该场景hosts字段值以https开头。 CSS集群安全组入向规则必须开启ICMP。 数据类型的使用,请参考Format章节。
-
导入数据(废弃) - 数据湖探索 DLI
)和中划线(-)相邻,禁止以英文句号(.)和中划线(-)开头或结尾。 禁止使用IP地址。 如果名称中包含英文句号(.),访问桶或对象时可能会进行安全证书校验。 导入源文件时,如果源文件中的某一列与目标表列类型不匹配,将会导致该行数据的查询结果为null 。 不支持并发导入同一张表。 调试 您可以在API
-
从Kafka读取数据写入到DWS - 数据湖探索 DLI
已创建DMS Kafka实例。 具体步骤可参考:DMS Kafka入门指引。 创建DMS Kafka实例时,不能开启Kafka SASL_SSL。 已创建DWS实例。 具体创建DWS集群的操作可以参考创建DWS集群。 整体作业开发流程 整体作业开发流程参考图1。 图1 作业开发流程
-
从Kafka读取数据写入到Elasticsearch - 数据湖探索 DLI
已创建DMS Kafka实例。 具体步骤可参考:DMS Kafka入门指引。 创建DMS Kafka实例时,不能开启Kafka SASL_SSL。 已创建Elasticsearch类型的CSS集群。 具体创建CSS集群的操作可以参考创建CSS集群。 本示例创建的CSS集群版本为:7
-
从Kafka读取数据写入到RDS - 数据湖探索 DLI
已创建DMS Kafka实例。 具体步骤可参考:DMS Kafka入门指引。 创建DMS Kafka实例时,不能开启Kafka SASL_SSL。 已创建RDS MySQL实例。 本示例创建的RDS MySQL数据库版本选择为:8.0。 具体步骤可参考:RDS MySQL快速入门。
-
内置依赖包 - 数据湖探索 DLI
Final.jar avatica-metrics-1.16.0.jar jaeger-core-1.6.0.jar netty-handler-ssl-ocsp-4.1.86.Final.jar avatica-server-1.16.0.jar jaeger-thrift-1.6.0.jar