-
Flink jar 如何连接SASL - 数据湖探索 DLI
Flink jar 如何连接SASL_SSL? 使用Flink Jar连接开启SASL_SSL认证的Kafka。 具体操作请参考使用Flink Jar连接开启SASL_SSL认证的Kafka 父主题: Flink Jar作业相关问题
-
创建Kafka - 数据湖探索 DLI
Kafka未开启Kerberos认证,仅开启了SSL认证时,创建Kafka_SSL类型的认证。建表时通过ssl_auth_name关联跨源认证。 MRS Kafka未开启Kerberos认证,开启了SASL认证和SSL认证时,创建Kafka_SSL类型的认证。建表时通过ssl_auth_name关联跨源认证。
-
使用Flink Jar连接开启SASL - 数据湖探索 DLI
// SASL_SSL相关配置项。设置jaas账号和密码,username和password为创建Kafka实例过程中开启SASL_SSL时填入的用户名和密码, // 或者创建SASL_SSL用户时设置的用户名和密码。格式如下, // org
-
类型转换函数 - 数据湖探索 DLI
类型转换函数 语法格式 CAST(value AS type) 语法说明 类型强制转换。 注意事项 若输入为NULL,则返回NULL。 示例 将amount值转换成整型。 insert into temp select cast(amount as INT) from source_stream;
-
类型转换函数 - 数据湖探索 DLI
类型转换函数 语法格式 CAST(value AS type) 语法说明 类型强制转换。 注意事项 若输入为NULL,则返回NULL。 cast函数不支持将字符串转换为json对象类型。 示例一:将amount值转换成整型 将amount值转换成整型。 insert into temp
-
类型转换函数 - 数据湖探索 DLI
类型转换函数 语法格式 CAST(value AS type) 语法说明 类型强制转换。 注意事项 若输入为NULL,则返回NULL。 cast函数不支持将字符串转换为json对象类型。 示例一:将amount值转换成整型 将amount值转换成整型。 insert into temp
-
类型转换函数 - 数据湖探索 DLI
p进行转换。 示例 将amount值转换成字符串,长度为转换后的实际长度,配置的长度无效。 insert into temp select cast(amount as VARCHAR(10)) from source_stream; 常用类型转换函数 表1 常用类型转换函数 函数
-
类型转换函数 - 数据湖探索 DLI
p进行转换。 示例 将amount值转换成字符串,长度为转换后的实际长度,配置的长度无效。 insert into temp select cast(amount as VARCHAR(10)) from source_stream; 常用类型转换函数 表1 常用类型转换函数 函数
-
类型转换函数 - 数据湖探索 DLI
类型转换函数 语法格式 CAST(value AS type) 语法说明 类型强制转换。 注意事项 若输入为NULL,则返回NULL。 示例 将amount值转换成整型。 insert into temp select cast(amount as INT) from source_stream;
-
类型转换函数 - 数据湖探索 DLI
这种情况下返回 NULL。 CAST语法格式 CAST(value AS type) CAST语法说明 类型强制转换。 CAST注意事项 如果输入为NULL,则返回NULL。 CAST示例一:将amount值转换成整型 将amount值转换成整型。 insert into temp
-
使用DLI将CSV数据转换为Parquet数据 - 数据湖探索 DLI
LI可轻松将CSV格式数据转换为Parquet格式数据。 方案架构 将CSV格式的数据上传到对象存储服务OBS,使用DLI将CSV数据转换为Parquet数据,并将转换后的Parquet数据存储到OBS中。 图1 方案简介 流程指导 使用DLI将CSV数据转换为Parquet数据主要包括以下步骤:
-
PowerBI工具对接DLI Trino - 数据湖探索 DLI
配置DLI集群的网络连通。 PowerBI安装及驱动安装。 配置PowerBI对接DLI Trino。 测试连接。 方案优势 大数据分析BI工具提供数据探索能力:PowerBI可以将数据转换成丰富的图表、表格、地图、仪表盘等多种形式,让数据更加直观、易懂。 华为云DLI提供数据的融合分析处理能力:DLI支
-
FineBI工具对接DLI Trino - 数据湖探索 DLI
填写用户名和密码,用户名格式为 '账号名/用户名/项目ID ',如何获项目ID,请参考获取项目ID。三者用“/”拼接,如果使用主账号连接,则前两者都为账号名。 数据连接URL填写示例:jdbc:presto://{ip}/dli/default?SSL=true。 数据连接的URL中ssl=tru
-
数据保护技术 - 数据湖探索 DLI
service.ssl.enabled 打开blob通道SSL开关。 否 true taskmanager.data.ssl.enable 打开taskmanager之间通信的SSL开关。 否 true security.ssl.algorithms 设置SSL加密的算法。 否
-
查询OpenTSDB表 - 数据湖探索 DLI
LI表会报错。 若OpenTSDB开了安全模式,则访问时,需要设置conf:dli.sql.mrs.opentsdb.ssl.enabled=true 语法格式 1 SELECT * FROM table_name LIMIT number; 关键字 LIMIT:对查询结果进行
-
查询OpenTSDB表 - 数据湖探索 DLI
LI表会报错。 若OpenTSDB开了安全模式,则访问时,需要设置conf:dli.sql.mrs.opentsdb.ssl.enabled=true 语法格式 1 SELECT * FROM table_name LIMIT number; 关键字 LIMIT:对查询结果进行
-
CSS安全集群配置 - 数据湖探索 DLI
在“es.net.ssl.keystore.pass”填入进入文件的密钥。 .option("es.net.ssl.truststore.location", "obs://桶名/path/truststore.jks") .option("es.net.ssl.truststore
-
Debezium Format - 数据湖探索 DLI
debezium-avro-confluent.ssl.keystore.location 否 (none) String SSL keystore的位置/文件。 debezium-avro-confluent.ssl.keystore.password 否 (none) String SSL keystore的密码。
-
故障处理 - 数据湖探索 DLI
解决方案 重新创建Spark作业,创建作业时需要在“Spark参数(--conf)”中添加配置:“spark.sql.mrs.opentsdb.ssl.enabled=true”。 父主题: 对接OpenTSDB
-
创建Kerberos跨源认证 - 数据湖探索 DLI
afka_SSL类型的认证。建表时通过ssl_auth_name关联跨源认证。 MRS Kafka未开启Kerberos认证,开启了SASL认证和SSL认证时,创建Kafka_SSL类型的认证。建表时通过ssl_auth_name关联跨源认证。 Kerberos类型跨源认证支持连接的数据源