检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
修改表生命周期的时间 功能描述 修改已存在的分区表或非分区表的生命周期。 当第一次开启生命周期时,会扫描表/分区会扫描路径下的表数据文件,更新表/分区的LAST_ACCESS_TIME,耗时与分区数和文件数相关。 约束限制 表生命周期处于公测阶段,如果有需要请联系客服申请开通白名单。
用于对输入进行分区的列名。分区扫描参数,具体请参考分区扫描功能介绍。 scan.partition.num 否 无 Integer 分区的个数。分区扫描参数,具体请参考分区扫描功能介绍。 scan.partition.lower-bound 否 无 Integer 第一个分区的最小值。分区扫描参数,具体请参考分区扫描功能介绍。
<scope>provided</scope> </dependency> 示例代码 本章节JAVA样例代码演示如何获取BasicCredentials,以及取临时委托的AK、SK、SecurityToken。 Flink UDF 获取作业委托凭证
UdfScalarFunction'; UDF UDF函数需继承ScalarFunction函数,并实现eval方法。open函数及close函数可选。 编写代码示例 import org.apache.flink.table.functions.FunctionContext; import org
使用Livy提交Spark Jar作业 DLI Livy简介 DLI Livy是基于开源的Apache Livy用于提交Spark作业到DLI的客户端工具。 准备工作 创建DLI队列。在“队列类型”中选择“通用队列”,即Spark作业的计算资源。具体请参考创建队列。 准备一个li
使用JDBC提交SQL作业 本文介绍通过JDBC连接DLI并提交SQL作业。 下载并安装JDBC驱动包 使用JDBC连接DLI并提交SQL作业 DLI JDBC Driver支持的API列表 父主题: 使用客户端工具连接DLI
<version>3.1.62</version> <scope>provided</scope> </dependency> 示例代码 本章节JAVA样例代码演示如何获取BasicCredentials,以及取临时委托的AK、SK、SecurityToken。 Spark Jar作业获取作业委托凭证
配置DBT连接DLI进行数据调度和分析 DBT(Data Build Tool),是一款开源的数据建模和转换工具,运行在Python环境上。DBT连接DLI,用来定义和执行SQL转换,支持从数据集成、转换到分析的整个数据生命周期管理,适用于大规模数据分析项目和复杂的数据分析场景。
使用Spark-submit提交Spark Jar作业 DLI Spark-submit简介 DLI Spark-submit是一个用于提交Spark作业到DLI服务端的命令行工具,该工具提供与开源Spark兼容的命令行。 准备工作 授权。 DLI使用统一身份认证服务(Identity
于返回当前时间戳。 命令格式 current_timestamp() 参数说明 无 返回值说明 返回TIMESTAMP类型的时间戳。 示例代码 返回1692002816300。 select current_timestamp(); 父主题: 日期函数
DLI开启Checkpoint有两种方式: 在作业代码中配置Checkpoint相关参数,适用于Flink 1.15及历史Flink版本。 在DLI管理控制台的Jar作业配置界面开启Checkpoint,适用于Flink 1.15及更高的引擎版本。 Flink 1.15版本请勿重复在作业代码和Jar作业配置界面
配置YongHong BI连接DLI进行数据查询和分析 YongHong BI是一款企业级数据分析工具。支持数据可视化、报表制作、数据分析和决策支持的功能,帮助企业洞察业务数据,提升决策效率。 本节操作介绍YongHong BI连接DLI的操作步骤。 操作前准备 环境要求: 已安装YongHong
配置DBeaver连接DLI进行数据查询和分析 DBeaver 是一个免费且开源的数据库管理工具,支持多种数据库,通过DBeaver这款可视化数据库管理工具可以查看数据库结构、执行SQL查询和脚本、浏览和导出数据等。本节操作介绍DBeaver连接DLI服务的操作步骤。 操作前准备
pi pi函数用于返回π的值。 命令格式 pi() 返回值说明 返回DOUBLE类型的值。 示例代码 返回3.141592653589793。 select pi(); 父主题: 数学函数
a的地址-->测试)。若能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,并提交运行,其代码如下: create table kafkaSource( id BIGINT, name STRING, description
e e函数用于计算返回e的值。 命令格式 e() 返回值说明 返回DOUBLE类型的值。 示例代码 返回2.718281828459045。 select e(); 父主题: 数学函数
2或更早版本中,x为double类型。 Spark3.3.x:x类型等于函数输入值的类型。 升级引擎版本后是否对作业有影响: 有影响,涉及相关用法需要适配。 示例代码: 准备数据: create table test_histogram_numeric(val int); INSERT INTO test_histogram_numeric
n 是 BIGINT 用于指定空格数量。 返回值说明 返回STRING类型。 n为空时,返回报错。 n值为NULL时,返回NULL。 示例代码 返回6。 select length(space(6)); 父主题: 字符串函数
配置Tableau通过Kyuubi连接DLI进行数据查询和分析 Tableau是一款数据分析和可视化工具,支持通过拖放式界面连接到各种数据源,创建交互式和共享式的数据可视化,从而将数据转化为可操作的见解。 Kyuubi是一个分布式 SQL 查询引擎,它提供了标准的SQL接口,使用
hh:mi:ss。 命令格式 current_date() 参数说明 无 返回值说明 返回DATE类型的日期值,格式为yyyy-mm-dd 示例代码 返回2023-08-16。 select current_date(); 父主题: 日期函数