-
在Spark SQL作业中使用UDTF - 数据湖探索 DLI
Console上执行UDTF相关操作时,需要使用自建的SQL队列。 不同的IAM用户使用UDTF时,除了创建UDTF函数的用户,其他用户如果需要使用时,需要先进行授权才可使用对应的UDTF函数。授权操作参考如下: 登录DLI管理控制台,选择“ 数据管理 > 程序包管理”页面,选择对应的UDTF
-
JDBC结果表 - 数据湖探索 DLI
= 'jdbc:mysql://MySQLAddress:MySQLPort/flink',--其中url中的flink表示MySQL中orders表所在的数据库名 'table-name' = 'orders', 'username' = 'MySQLUsername'
-
pyspark样例代码 - 数据湖探索 DLI
ErrorIfExis:如果已经存在数据,则抛出异常。 Overwrite:如果已经存在数据,则覆盖原数据。 Append:如果已经存在数据,则追加保存。 Ignore:如果已经存在数据,则不做操作。这类似于SQL中的“如果不存在则创建表”。 读取RDS上的数据 1 2 3 4 5 6 7
-
窗口 - 数据湖探索 DLI
根据订单信息使用kafka作为数据源表,JDBC作为数据结果表统计用户在30秒内的订单数量,并根据窗口的订单id和窗口开启时间作为主键,将结果实时统计到JDBC中: 根据MySQL和kafka所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放
-
作业开发 - 数据湖探索 DLI
Spark如何将数据写入到DLI表中 通用队列操作OBS表如何设置AK/SK 如何查看DLI Spark作业的实际资源使用情况 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库? 如何在DLI中运行复杂PySpark程序?
-
窗口 - 数据湖探索 DLI
根据订单信息使用kafka作为数据源表,JDBC作为数据结果表统计用户在30秒内的订单数量,并根据窗口的订单id和窗口开启时间作为主键,将结果实时统计到JDBC中: 根据MySQL和kafka所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放
-
JDBC结果表 - 数据湖探索 DLI
= 'jdbc:mysql://MySQLAddress:MySQLPort/flink',--其中url中的flink表示MySQL中orders表所在的数据库名 'table-name' = 'orders', 'username' = 'MySQLUsername'
-
SQL作业管理 - 数据湖探索 DLI
SQL作业管理 SQL作业包括在SQL作业编辑器窗口执行SQL语句,导入数据和导出数据等操作。 SQL作业管理主要包括如下功能: 查找作业:筛选符合对应条件的作业。 查看作业详情:显示作业的详细信息。 终止作业:终止“提交中”或“运行中”的作业。 导出作业SQL作业结果:导出作业
-
java样例代码 - 数据湖探索 DLI
'driver'='com.mysql.jdbc.Driver')") 创建表参数说明请参考表1。 插入数据 1 sparkSession.sql("insert into dli_to_rds values (1,'John',24)"); 查询数据 1 sparkSession.sql("select
-
Flink SQL作业消费Kafka后sink到es集群,作业执行成功,但未写入数据 - 数据湖探索 DLI
Flink SQL作业消费Kafka后sink到es集群,作业执行成功,但未写入数据 问题现象 客户创建Flink SQL作业,消费Kafka后sink到es集群,作业执行成功,但无数据。 原因分析 查看客户作业脚本内容,排查无问题,作业执行成功,出现该问题可能的原因如下: 数据不准确。
-
DLI创建跨源连接,进行绑定队列一直在创建中怎么办? - 数据湖探索 DLI
DLI创建跨源连接,进行绑定队列一直在创建中怎么办? 跨源连接创建慢,有以下几种可能: 购买DLI队列后,第一次进行绑定队列。通常需要等待5~10分钟,待后台拉起集群后,即可创建成功。 若刚刚对队列进行网段修改,立即进行绑定队列。通常需要等待5~10分钟,待后台重建集群后,即可创建成功。
-
DLI如何进行队列异常监控? - 数据湖探索 DLI
DLI如何进行队列异常监控? DLI为用户提供了作业失败的topic订阅功能。 登录DLI控制台。 单击左侧“队列管理”,进入队列管理页面。 在队列管理页面,单击左上角“创建消息通知主题”进行配置。详细操作请参考《数据湖探索用户指南》。 父主题: 使用咨询
-
原生数据类型 - 数据湖探索 DLI
默认值为0。 由于浮点类型的数据在计算机中的存储方式的限制,在比较两个浮点类型的数据是否相等时,因存在精度问题,不能直接采用“a==b”的方式进行比较,建议使用“(a-b)的绝对值<=EPSILON”这种方式进行比较,EPSILON为允许的误差范围,一般为1.19209290E-
-
入门实践 - 数据湖探索 DLI
OpenSource SQL作业从Kafka读取数据写入到Elasticsearch的开发示例。 从MySQL CDC源表读取数据写入到DWS 介绍使用Flink OpenSource SQL作业从MySQL CDC源表读取数据写入到DWS的开发示例。 从PostgreSQL CDC源表读取数据写入到DWS
-
对跨源DWS表执行insert overwrite操作,报错:org.postgresql.util.PSQLException: ERROR: tuple concurrently updated - 数据湖探索 DLI
overwrite操作,报错:org.postgresql.util.PSQLException: ERROR: tuple concurrently updated。 原因分析 客户作业存在并发操作,同时对一张表执行两个insert overwrite操作。 一个cn在执行: TRUNCATE TABLE BI_MONITOR
-
查看DLI的执行SQL记录 - 数据湖探索 DLI
查看DLI的执行SQL记录 场景概述 执行SQL作业过程中需要查看对应的记录。 操作步骤 登录DLI管理控制台。 在左侧导航栏单击“作业管理”>“SQL作业”进入SQL作业管理页面。 输入作业ID或者执行的语句可以筛选所要查看的作业。 父主题: 运维指导
-
Top-N - 数据湖探索 DLI
rownum <= N [AND conditions] 语法说明 ROW_NUMBER(): 根据当前分区内的各行的顺序从第一行开始,依次为每一行分配一个唯一且连续的号码。目前,我们只支持 ROW_NUMBER 在 over 窗口函数中使用。未来将会支持 RANK() 和 DENSE_RANK()函数。
-
创建SQL作业的API执行超过时间限制,运行超时报错 - 数据湖探索 DLI
API以同步模式调用运行时会有两分钟的超时时间限制,如果API调用超过该时间限制则会超时报错。 解决方案 调用“提交SQL作业”API时可以通过设置“dli.sql.sqlasync.enabled”参数为“true”来异步运行该作业。 具体可以参考提交SQL作业API。 父主题:
-
迁移Hive数据至DLI - 数据湖探索 DLI
b已创建的DLI数据源连接。 资源队列 选择已创建的DLI SQL类型的队列。 数据库名称 选择DLI下已创建的数据库。当前示例为在DLI上创建数据库和表中创建的数据库名,即为“testdb”。 表名 选择DLI下已创建的表名。当前示例为在DLI上创建数据库和表中创建的表名,即为“user_info”。
-
数学运算函数 - 数据湖探索 DLI
数学运算函数 关系运算符 所有数据类型都可用关系运算符进行比较,并返回一个BOOLEAN类型的值。 关系运算符均为双目操作符,被比较的两个数据类型必须是相同的数据类型或者是可以进行隐式转换的类型。 Flink SQL提供的关系运算符,请参见表1。 表1 关系运算符 运算符 返回类型