-
数据湖探索监控指标说明及查看指导 - 数据湖探索 DLI
≥0 Flink作业 10秒钟 flink_read_bytes_per_second Flink作业字节输入速率 展示用户Flink作业每秒输入的字节数。
-
OrderBy & Limit - 数据湖探索 DLI
OrderBy & Limit OrderBy 功能描述 主要根据时间属性按照升序进行排序 注意事项 目前仅支持根据时间属性进行排序 示例 对订单根据订单时间进行升序排序 SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数
-
CLUSTER BY - 数据湖探索 DLI
语法格式 1 2 SELECT attr_expr_list FROM table_reference CLUSTER BY col_name [,col_name ,...]; 关键字 CLUSTER BY:根据指定的字段进行分桶,支持单字段及多字段,并在桶内进行排序。
-
OVER子句 - 数据湖探索 DLI
OVER子句 功能描述 窗口函数与OVER语句一起使用。OVER语句用于对数据进行分组,并对组内元素进行排序。窗口函数用于给组内的值生成序号。
-
CLUSTER BY - 数据湖探索 DLI
语法格式 1 2 SELECT attr_expr_list FROM table_reference CLUSTER BY col_name [,col_name ,...]; 关键字 CLUSTER BY:根据指定的字段进行分桶,支持单字段及多字段,并在桶内进行排序。
-
OrderBy & Limit - 数据湖探索 DLI
OrderBy & Limit OrderBy 功能描述 主要根据时间属性按照升序进行排序 注意事项 目前仅支持根据时间属性进行排序 示例 对订单根据订单时间进行升序排序 SELECT * FROM Orders ORDER BY orderTime; Limit 功能描述 限制返回的数据结果个数
-
property - 数据湖探索 DLI
property_name 格式 无。 说明 属性名称,仅支持字符串类型。 父主题: 标示符
-
property - 数据湖探索 DLI
property_name 格式 无。 说明 属性名称,仅支持字符串类型。 父主题: 标示符
-
upper/ucase - 数据湖探索 DLI
upper/ucase upper函数用于从将文本字符串转换成字母全部大写的形式。 命令格式 upper(string A) 或 ucase(string A) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 A 是 STRING 待转换的文本字符串。
-
OpenTSDB结果表 - 数据湖探索 DLI
OpenTSDB的设计目标是用来采集大规模集群中的监控类信息,并可实现数据的秒级查询,解决海量监控类数据在普通数据库中查询存储的局限性,可用于系统监控和测量、物联网数据、金融数据和科学实验结果数据的收集监控。
-
OpenTSDB结果表 - 数据湖探索 DLI
OpenTSDB的设计目标是用来采集大规模集群中的监控类信息,并可实现数据的秒级查询,解决海量监控类数据在普通数据库中查询存储的局限性,可用于系统监控和测量、物联网数据、金融数据和科学实验结果数据的收集监控。
-
WHERE过滤子句 - 数据湖探索 DLI
WHERE过滤子句 功能描述 利用WHERE子句过滤查询结果。
-
EdgeHub输入流(EOS) - 数据湖探索 DLI
适用于物联网IOT场景,将实时流计算能力从云端延伸到边缘,在边缘快速实现对流数据实时、快速、准确地分析处理,增加数据处理计算的速度和效率。同时将数据在边缘预处理,可以有效减少无效的数据上云,减少资源消耗,提升分析效率。
-
Upsert Kafka结果表 - 数据湖探索 DLI
Upsert Kafka结果表 功能描述 DLI将Flink作业的输出数据以upsert的模式输出到Kafka中。
-
Upsert Kafka结果表 - 数据湖探索 DLI
Upsert Kafka结果表 功能描述 DLI将Flink作业的输出数据以upsert的模式输出到Kafka中。
-
Upsert Kafka源表 - 数据湖探索 DLI
但是'key.deserializer' 和 'value.deserializer' 是不允许通过该方式传递参数,因为Flink会重写这些参数的值。 ssl_auth_name 否 无 String DLI侧创建的Kafka_SSL类型的跨源认证名称。
-
Upsert Kafka结果表 - 数据湖探索 DLI
DLI将Flink作业的输出数据以upsert的模式输出到Kafka中。 Upsert Kafka 连接器支持以upsert方式从Kafka topic中读取数据并将数据写入Kafka topic。 upsert-kafka连接器作为 sink,可以消费changelog 流。
-
WHERE嵌套子查询 - 数据湖探索 DLI
语法格式 1 2 SELECT [ALL | DISTINCT] attr_expr_list FROM table_reference WHERE {col_name operator (sub_query) | [NOT] EXISTS sub_query}; 关键字 ALL
-
Upsert Kafka源表 - 数据湖探索 DLI
但是'key.deserializer' 和 'value.deserializer' 是不允许通过该方式传递参数,因为Flink会重写这些参数的值。 ssl_auth_name 否 无 String DLI侧创建的Kafka_SSL类型的跨源认证名称。
-
userDefined结果表 - 数据湖探索 DLI
>flink-core</artifactId> <version>${flink.version}</version> <scope>provided</scope> </dependency> 实现完成后将该类编译打包在Jar中,通过Flink OpenSource