检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
系统默认创建的规则是指在队列创建时,DLI自动为您创建的SQL防御规则,该规则与队列绑定,且不支持删除。
使用insert into时,会往表中追加数据,而使用insert overwrite时,如果表属性“auto.purge”被设置为“true”,直接删除原表数据,再写入新的数据。 如果对象表是分区表时,insert overwrite会删除对应分区的数据而非所有数据。
创建Flink OpenSource SQL作业时,在作业编辑界面配置开启checkpoint功能。
单击右上角的”创建作业”即可提交Spark jar的作业。 编写并打包Spark jar的程序包:(以Maven项目为例) 创建或使用现有的maven java项目,在 pom.xml 中引入scala 2.12,spark 3.3.1 和hudi 0.11.0 版本的依赖。
若OpenTSDB上不存在metric,插入数据时会在OpenTSDB上自动创建一个新的metric。
数据生成后,可通过如下SQL语句建立OBS分区表,用于后续批处理: 创建OBS分区表。
CREATE DATABASE语句 功能描述 根据给定的表属性创建数据库。如果数据库中已存在同名表会抛出异常。
创建Flink作业:点击界面右上角的”创建作业”按钮,在弹出窗口中配置作业名称,类型选择”Flink OpenSource SQL” 写入Flink SQL (不使用Catalog的场景): 这里的sink表通过创建临时表指向Hudi表路径来写入数据,同时在表参数中配置hive_sync
图5 创建Flink Jar对应的程序包 在DLI控制台,打开“数据管理 > 程序包管理”,单击“创建”,创建KafkaToKafka.properties对应的程序包。代码样例请参考•KafkaToKafkaExample.pro...。
请勿删除系统默认创建的委托。 后续操作 除dli_management_agency提供的委托权限外,一些场景需要用户自行在IAM页面创建相关委托,并在作业配置中添加新建的委托信息。
图1 更新委托权限 委托更新完成后,重新创建跨源连接和运行作业。 父主题: 增强型跨源连接类
新建Flink Jar作业 功能介绍 该API用于创建用户自定义的作业,目前支持jar格式,运行在独享队列中。 调试 您可以在API Explorer中调试该接口。
此命令会列出目录中的所有文件,创建 Delta Lake 事务日志来跟踪这些文件,并通过读取所有 Parquet 文件的页脚来自动推断数据架构。 转换过程会收集统计信息,以提升转换后的 Delta 表的查询性能。
使用如下命令创建truststore.jks文件并进行验证 。
按需计费的弹性资源池如不再使用,可删除资源停止计费。 按需计费资源删除后,可能还会存在账单信息,因为系统通常会在使用后1个小时内对上一个结算周期的费用进行扣款。例如在8:30删除按小时结算的资源,但是8:00~9:00期间产生的费用,通常会在10:00左右才进行扣费。
示例 参考创建Flink OpenSource作业,创建flink opensource sql作业,运行如下作业脚本,通过DataGen表产生随机数据并输出到Print结果表中。
注意: 在 CREATE TABLE 语句中,创建主键会修改列的 nullable 属性,主键声明的列默认都是非 Nullable 的。 PARTITIONED BY 根据指定的列对已经创建的表进行分区。若表使用 filesystem sink ,则将会为每个分区创建一个目录。
您可以通过配置桶的生命周期规则,定时删除桶中的对象或者定时转换对象的存储类别。 DLI的作业桶设置后请谨慎修改,否则可能会造成历史数据无法查找。 Spark日志分割规则: 按大小分割:默认情况下,每个日志文件最大为128MB。 按时间分割:每过一小时自动创建新的日志文件。
ImportJob对象的时候直接通过参数的形式创建 。
关于如何创建Flink SQL作业或者Flink Jar作业,请参考《数据湖探索用户指南》。 父主题: Flink作业咨询类