检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
properties.* 否 无 String 设置和传入任意的Kafka原生配置文件。 注意: 后缀名必须匹配在Apache Kafka中的配置键。 例如关闭自动创建topic:'properties.allow.auto.create.topics' = 'false'。 存在一些配置不支持配置,如'key
时间,结束时间,参数设置,标签,结果条数(运行成功,可导出结果),已扫描数据,执行用户,结果状态(运行成功,可查看结果;运行失败,显示失败原因),数据库,CPU累计使用量,输出字节。 CPU累计使用量:作业执行过程的CPU消耗总和,单位:Core*ms 输出字节:作业执行完成后输出的字节数。
mpaction形成很大压力需要更多资源才能完成。 Hudi表在Hive元数据中,应该会存在1张内部表(手动创建),2张外部表(写入数据后自动创建)。 2张外部表,表名_ro(用户只读合并后的parquet文件,即读优化视图表),_rt(读实时写入的最新版本数据,即实时视图表)。
在DLI使用Hudi提交Spark SQL作业 登录DLI管理控制台,选择“SQL编辑器”首进入提交SQL作业的界面。提交SQL作业时需要选择支持Hudi的Spark SQL队列。 创建一张Hudi表: 将如下的建表语句粘贴至DLI SQL编辑器的输入区域,修改 LOCATION
k写入就会导致重复数据的产生。在批量初始化阶段 ,先采用Spark批量写入Hudi表,再用Flink基于Flink状态索引写入不会有问题,原因是Flink冷启动的时候会遍历所有的数据文件生成状态索引。 实时入湖场景中,Spark引擎采用Bucket索引,Flink引擎可以用Bucket索引或者状态索引。
flink_taskmanager_job_task_operator_pendingRecords 尚未被 Source 拉取的数据数量 父主题: 使用AOM监控DLI服务
完成以上步骤后,就可以开始进行数据查询了。 单击“SQL编辑器”页面左侧的“数据库”页签,选择新创建的表table1,双击表,在右侧编辑窗口中,自动输入SQL查询语句,例如查询table1表的1000条数据: select * from db1.table1 limit 1000; 单击“执行”,系统开始查询。
且依赖JDK 1.7及以上版本。 下载的JDBC驱动包中包含了.bat(Windows)或.sh(Linux/Mac)脚本,这些脚本用于自动化安装JDBC驱动到本地Maven仓库。 您可以根据操作系统运行相应的脚本安装JDBC驱动 Windows:双击.bat文件或在命令行中运行。
double, map<string, string>, timestamp(3), time。 为了避免数据丢失或者数据被覆盖,开启作业异常自动重启,需要配置为“从checkpoint恢复”。 checkpoint间隔设置需在输出文件实时性、文件大小和恢复时长之间进行权衡,比如10分钟。
e temporal join始终会加入最新版本的时态表。Flink支持分区表和 Hive非分区表的临时连接,对于分区表,Flink 支持自动跟踪Hive表的最新分区。详情可参考:Apache Flink Hive Read & Write 注意事项 Flink目前不支持与Hiv
版本支持公告 DLI计算引擎版本生命周期 Flink 1.15版本说明 Flink 1.12版本说明 Spark 3.3.1版本说明 Spark 3.1.1版本说明 Spark 2.4.5版本说明 Spark 2.4.x与Spark 3.3.x版本差异对比
说明 str1、str2 是 STRING 字符串。 如果输入参数为BIGINT、DOUBLE、DECIMAL或DATETIME类型,则会自动转换为STRING类型后参与运算,其他类型会返回报错。 返回值说明 返回ARRAY数组或STRING的值。 返回ARRAY类型。如果任一输
"pay_time" 16) "2021-03-24 10:02:03" 常见问题 Q:当data-type为set时,最终结果数据相比输入数据个数少了是什么原因? A:这是因为输入数据中有重复数据,导致在Redis的set中会进行排重,因此个数变少了。 Q:如果Flink作业的日志中有如下报错信息,应该怎么解决?
根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放开,并根据kafka和ecs的地址测试队列连通性(通用队列-->找到作业的所属队列-->更多-->测试地址连通性-->输入kafka或ecs的地址-->
Strings 依赖的系统资源模块名,具体模块名可通过查询组内资源包(废弃)接口查看。 DLI系统提供了用于执行跨源作业的依赖模块,各个不同的服务对应的模块列表如下: CloudTable/MRS HBase: sys.datasource.hbase CloudTable/MRS OpenTSDB:
欠费影响(适用于按需计费模式) 图4描述了按需计费的DLI资源各个阶段的状态。购买后,在计费周期内资源正常运行,此阶段为有效期;当您的账号因按需资源自动扣费导致欠费后,账号将变成欠费状态,资源将陆续进入宽限期和保留期。 图4 按需计费的DLI资源生命周期 欠费预警 系统会在每个计费周期后的
与其他云服务的关系 与对象存储服务(OBS)的关系 对象存储服务(Object Storage Service)作为DLI的数据来源及数据存储,与DLI配合一起使用,关系有如下四种。 数据来源:使用DLI服务提供API,将OBS对应路径的数据导入到DLI。 具体API请参考《导入数据》。
String 设置和传入任意的Kafka原生配置文件。 注意: “properties.”中的后缀名必须是Apache Kafka中的配置键。 例如关闭自动创建topic:'properties.allow.auto.create.topics' = 'false'。 存在一些配置不支持配置,如'key
Task重算,引起Spark作业和SQL作业内部自动重试,当作业重试超过限制会导致作业执行失败,需用户重新执行作业。 DLI队列类型 DLI分为三种队列类型: default队列、SQL队列、通用队列,您可以根据业务场景和作业特性选择最合适的队列类型。 default队列: DLI服务预置的队列,所有用户共享。
根据kafka和ecs所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放开,并根据kafka和ecs的地址测试队列连通性(通用队列 > 找到作业的所属队列 > 更多 > 测试地址连通性 > 输入kafka或ecs的地址 >