-
字符串函数 - 数据湖探索 DLI
如果任一参数为NULL时,则跳过该参数。 CONCAT_WS VARCHAR 将每个参数值和第一个参数separator指定的分隔符依次连接到一起组成新的字符串,长度和类型取决于输入值。 HASH_CODE INT 返回字符串的HASH_CODE()的绝对值。参数除string
-
Raw Format - 数据湖探索 DLI
墓碑消息(在键上删除)。因此,如果该字段可能具有 null 值,我们建议避免使用 upsert-kafka 连接器和 raw format 作为 value.format。 Raw format 连接器是内置的。 参数说明 表1 参数 是否必选 默认值 类型 描述 format 是 (none)
-
Raw Format - 数据湖探索 DLI
墓碑消息(在键上删除)。因此,如果该字段可能具有 null 值,我们建议避免使用 upsert-kafka 连接器和 raw format 作为 value.format。 Raw format 连接器是内置的。 参数说明 表1 参数 是否必选 默认值 类型 描述 format 是 (none)
-
数据保护技术 - 数据湖探索 DLI
ssl.verify-hostname 用于控制在建立SSL/TLS连接时是否验证对端的主机名(hostname)与证书中的信息是否匹配。 否 false security.ssl.protocol 指定SSL/TLS连接时所使用的协议版本 否 TLSv1.2、TLSv1.3 security
-
CloudTable HBase输出流 - 数据湖探索 DLI
该场景作业需要运行在DLI的独享队列上,因此要与CloudTable HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 语法格式
-
获取跨源认证列表(废弃) - 数据湖探索 DLI
表2 query参数 参数名称 是否必选 参数类型 说明 limit 否 String 查询最大连接个数,默认为100。 offset 否 String 查询结果偏移量,默认为0(连接以创建时间进行排序)。 auth_info_name 是 String 认证信息名,同一个project下唯一。
-
常用操作与系统权限关系 - 数据湖探索 DLI
赋予指定用户弹性资源池权限 √ × √ √ REVOKE_PRIVILEGE 移除指定用户弹性资源池权限 √ × √ √ 增强型跨源连接 BIND_QUEUE 增强型跨源连接绑定队列 仅用于跨项目授权。 × × × × 父主题: 权限管理
-
CSS安全集群配置 - 数据湖探索 DLI
4或以上集群版本,创建CSS安全集群,并下载安全集群证书(CloudSearchService.cer)。 登录云搜索服务控制台,单击“集群管理”,选择需要建立跨源连接的集群,如图1所示: 图1 CSS集群管理 单击“安全模式”中的“下载证书”下载安全证书。 使用keytool工具生成keystore和truststore文件。
-
概述 - 数据湖探索 DLI
数据库的异构数据进行探索。 您可以使用本文档提供API对数据湖探索进行相关操作,包括队列、SQL作业、Flink作业、Spark作业和跨源连接等等。支持的全部操作请参见API概览。 在调用数据湖探索API之前,请确保已经充分了解数据湖探索相关概念。详细信息请参见产品介绍。 父主题:
-
CloudTable HBase输出流 - 数据湖探索 DLI
该场景作业需要运行在DLI的独享队列上,因此要与CloudTable HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 语法格式
-
数据湖探索 DLI - 数据湖探索 DLI
标及审计日志,以便及时了解DLI的健康状态。 管理控制台 DLI控制台总览 SQL作业编辑器 作业管理 队列管理 数据管理 作业模板 跨源连接 常用语法 Spark SQL语法概览 Flink OpenSource SQL1.12语法概览 Flink OpenSource SQL1
-
CSS Elasticsearch输出流 - 数据湖探索 DLI
章节。 该场景作业需要运行在DLI的独享队列上,因此要与云搜索服务建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 语法格式
-
DLI Flink与MRS Flink有什么区别? - 数据湖探索 DLI
用户可以根据业务负载进行弹性扩缩容,能够基于作业的负载动态调整作业使用资源大小。 支持基于作业优先级动态调整作业的使用资源。 仅支持YARN集群。 上下游数据连接 除了开源connector之外,还提供开箱即用的connector,包括数据库(RDS、GaussDB)、消息队列(DMS)、数据仓库(DWS)、对象存储(OBS)
-
CSS Elasticsearch输出流 - 数据湖探索 DLI
章节。 该场景作业需要运行在DLI的独享队列上,因此要与云搜索服务建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 语法格式
-
流生态作业开发指引 - 数据湖探索 DLI
用SQL从这些服务中读写数据,如DIS、OBS、CloudTable、MRS、RDS、SMN、DCS等。 开源生态 通过对等连接建立与其他VPC的网络连接后,用户可以在DLI的租户独享集群中访问所有Flink和Spark支持的数据源与输出源,如Kafka、Hbase、ElasticSearch等。
-
修订记录 - 数据湖探索 DLI
2023-08-15 修改 FineBI工具对接DLI Trino、PowerBI工具对接DLI Trino补充说明“Trino引擎队列仅支持HTTPS协议的连接方式”。 2023-07-21 新增 FineBI工具对接DLI Trino章节。 PowerBI工具对接DLI Trino章节。 2023-03-09
-
数据赋权(用户或项目) - 数据湖探索 DLI
“databases.数据库名.tables.表名.columns.列名”,指定的列将被共享。 “edsconnections.连接ID”,赋予某增强型跨源连接的使用权限。 privileges 是 Array of strings 待赋权,回收或更新的权限列表。 说明: 若“act
-
运维指导 - 数据湖探索 DLI
查询到该部分数据 为什么insert overwrite覆盖分区表数据的时候,覆盖了全量数据? 为什么SQL作业一直处于“提交中”? 跨源连接RDS表中create_date字段类型是datetime,为什么dli中查出来的是时间戳呢? SQL作业执行完成后,修改表名导致datasize修改失败怎么办?
-
创建Spark作业 - 数据湖探索 DLI
le、DCS Redis、DDS等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Spark作业支持访问的外部数据源详情请参考跨源分析开发方式。 创建跨源连接操作请参见增强型跨源连接(推荐)。 创建完跨源连接后,可以通过“资源管理 > 队列管理”页面,单击“操
-
BlackHole结果表 - 数据湖探索 DLI
'blackhole' ); 参数说明 表1 选项 是否必要 默认值 类型 描述 connector 是 无 String 指定需要使用的连接器,此处应为'blackhole'。 示例 通过DataGen源表产生数据,BlackHole结果表接收传来的数据。 create table