检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
时间段设置仅支持整点,时间区间包括开始时间,不包括结束时间即[开始时间, 结束时间)。 例如当前选择的时间段范围为:01--17,则表示当前规则时间范围为[01, 17)。 不同优先级的时间段区间不能有交集。 最大最小CU: 在全天的任意一个时间段内,弹性资源池中所有队列的最小CU数之和必须小于等于弹性资源池的最小CU数。
”->”参数设置”中可以配置Hudi参数。 提交DLI Spark jar作业时,Hudi参数可以通过Spark datasource API的option来配置。 或者,在提交作业时配置到"Spark参数(--conf)" 中,注意,此处配置的参数,键需要添加前缀 ”spark
DTAE 将date按照特定的格式进行清零操作,支持格式为MONTH/MON/MM, YEAR/YYYY/YY,如trunc('2015-03-17', 'MM') = 2015-03-01。 unix_timestamp unix_timestamp(string timestamp
> 3; 插入一组常量数据。 1 insert into temp select 'Lily’, ‘male’, ‘student’, 17; WHERE过滤子句 语法格式 1 2 3 SELECT { * | projectItem [, projectItem ]* }
> 3; 插入一组常量数据。 1 insert into temp select 'Lily’, ‘male’, ‘student’, 17; WHERE过滤子句 语法格式 1 2 3 SELECT { * | projectItem [, projectItem ]* }
> 3; 插入一组常量数据。 1 insert into temp select 'Lily’, ‘male’, ‘student’, 17; WHERE过滤子句 语法格式 1 2 3 SELECT { * | projectItem [, projectItem ]* }
在表格中插入分区数据。 利用插入数据中的内容,可以插入以下数据 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 INSERT into student partition (facultyNo
单击DLI控制台左侧“作业管理”,选择“Flink作业”。单击“创建作业”。 类型:选择作业类型为:Flink OpenSource SQL。 名称:自定义。 图17 创建Flink作业 单击“确定”,进入作业编辑作业页面,具体SQL示例如下,部分参数值需要根据RDS和DMS对应的信息进行修改。 --*
创建Flink Jar作业 Flink Jar作业是基于Flink能力进行二次开发的场景,即构建自定义应用Jar包并提交到DLI的队列运行。 Flink Jar作业场景需要用户自行编写并构建应用Jar包,适用于对流计算处理复杂度要求较高的用户场景,且用户可以熟练掌握Flink二次开发能力。
对于Flink Jar作业,您需要在代码中开启Checkpoint,同时如果有自定义的状态需要保存,您还需要实现ListCheckpointed接口,并为每个算子设置唯一ID。然后在作业配置中,勾选“从Checkpoint恢复”,并准确配置Checkpoint路径。 图2 开启Checkpoint
OBS 2.0支持 DLI Spark作业 DLI在开源Spark基础上进行了大量的性能优化与服务化改造,兼容Apache Spark生态和接口,执行批处理任务。 DLI还支持使用Spark作业访问DLI元数据,具体请参考《数据湖探索开发指南》。 发布区域:全部 使用DLI提交Spark
Jar使用DEW获取访问凭证读写OBS的操作指导。 用户获取Flink作业委托临时凭证 DLI提供了一个通用接口,可用于获取用户在启动Flink作业时设置的委托的临时凭证。该接口将获取到的该作业委托的临时凭证封装到com.huaweicloud.sdk.core.auth.BasicCredentials类中。
> 原生数据类型”。 请参考原生数据类型。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 CREATE TABLE IF NOT EXISTS table2 ( col_01 STRING, col_02 CHAR
目录结构 名称 说明 dli python环境的DLI SDK基础模块。 examples python样例代码。 pyDLI pyHive的实现接口。 setup.py Python SDK安装脚本。 安装DLI Python SDK 下载并解压SDK安装包。 将"dli-sdk-python-<version>
datetime=2022-06-26 └── hour=16 ├── part-0.parquet └── hour=17 ├── part-0.parquet 分区和文件一样,也需要进行提交,通知下游应用可以安全地读取分区内的文件。Filesystem
注意key必须是唯一的。如果一个key出现多次,则会抛出错误。 目前在OVER窗口中不支持此功能。 -- '{"Apple":2,"Banana":17,"Orange":0}' SELECT JSON_OBJECTAGG(KEY product VALUE cnt) FROM orders
BI、SuperSet、Tableau和Beeline,它们可以通过Kyuubi建立与DLI的连接。Kyuubi是一个分布式SQL查询引擎,提供了标准的SQL接口,使得BI工具能够通过Kyuubi与DLI进行交互,执行数据查询和分析。 BI工具连接DLI的方案中使用了DLI SDK V2。 2024年5月起,新用户可以直接使用DLI
datetime=2022-06-26 └── hour=16 ├── part-0.parquet └── hour=17 ├── part-0.parquet 分区和文件一样,也需要进行提交,通知下游应用可以安全地读取分区内的文件。Filesystem
| | 2020-04-15 08:13 | 1.00 | E | supplier1 | | 2020-04-15 08:17 | 6.00 | F | supplier2 | +------------------+-------+------+-------------+
Jar使用DEW获取访问凭证读写OBS的操作指导。 用户获取Flink作业委托临时凭证 DLI提供了一个通用接口,可用于获取用户在启动Flink作业时设置的委托的临时凭证。该接口将获取到的该作业委托的临时凭证封装到com.huaweicloud.sdk.core.auth.BasicCredentials类中。