检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户无需登录维护集群,在控制台上完成一键提交,无需接触集群。 支持Flink SQL作业快速开启checkpoint。 支持Flink作业日志转储保留,便于作业分析。 需要一定的技术能力完成代码编译、集群搭建、配置、运维。 用户需要自己编写完整代码并进行编译。 用户需要登录集群使用命令进行提交,且需要维护集群。
queue replaceQueue 重启队列 queue queueActions 扩容/缩容队列 queue queueActions 提交作业(SQL) queue submitJob 取消作业(SQL) jobs cancelJob 授权obs桶给DLI服务 obs aut
/extension/dli/spark-jar/datasource/hbase/* 通过控制台提交作业请参考《数据湖探索用户指南》中的“选择依赖资源参数说明”。 通过API提交作业请参考《数据湖探索API参考》>《创建批处理作业》中“表2-请求参数说明”关于“modules”参数的说明。
单击“申请扩大配额”。 在“新建工单”页面,根据您的需求,填写相关参数。 其中,“问题描述”项请填写需要调整的内容和申请原因。 填写完毕后,勾选协议并单击“提交”。
单击“申请扩大配额”。 在“新建工单”页面,根据您的需求,填写相关参数。 其中,“问题描述”项请填写需要调整的内容和申请原因。 填写完毕后,勾选协议并单击“提交”。 父主题: DLI常用管理操作
建数据流管道,主要解决云服务外的数据实时传输到云服务内的问题。数据接入服务每小时可从数十万种数据源(如IoT数据采集、日志和定位追踪事件、网站点击流、社交媒体源等)中连续捕获、传送和存储数TB数据。DIS的更多信息,请参见《数据接入服务用户指南》。 语法格式 create table
Action由服务名:资源类型:操作三段组成,通配符为*。例如: 表2 Action Action 说明 dli:queue:submit_job DLI队列的提交操作 dli:queue:* DLI队列的全部操作 dli:*:* DLI所有资源类型的所有操作 更多操作与系统权限的关系请参考常用操作与系统权限关系。
一 ,用来保证Flink的EOS语义。 sink.enable-2pc TRUE 否 是否开启两阶段提交(2pc),默认为true,保证Exactly-Once语义。关于两阶段提交可参考这里。 sink.check-interval 10000 否 加载时检查间隔异常。 sink
project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 job_id 是 String 作业ID。可通过提交SQL作业(推荐)获取。 请求消息 无请求参数。 响应消息 表2 响应参数 参数名称 是否必选 参数类型 说明 is_success 是 Boolean
'connector' = 'print' ); insert into printSink select * from dataGenSource; 该作业提交后,作业状态变成“运行中”,后续您可通过如下操作查看输出结果。 方法一: 登录DLI管理控制台,选择“作业管理 > Flink作业”。 在
stamp进行转换。 示例二 参考Kafka源表和Print结果表创建flink opensource sql作业,输入以下作业运行脚本,提交运行作业。 注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的
Flink Opensource SQL Elasticsearch结果表failure-handler参数填写retry_rejected导致提交失败 Kafka Sink配置发送失败重试机制 如何在一个Flink作业中将数据写入到不同的Elasticsearch集群中? 作业语义检验时提示DIS通道不存在怎么处理?
阻塞Clean,如果没有Compaction操作来产生新版本的Parquet文件,那旧版本的文件就不能被Clean清理,增加存储压力。 提交Spark jar作业时,CPU与内存比例为1:4~1:8。 Compaction作业是将存量的parquet文件内的数据与新增的log中
>测试)。若能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.12,并提交运行,其代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel
'2' --配置并行度 ); insert into printSink select * from dataGenSource; 该作业提交后,作业状态变成“运行中”,后续您可通过如下操作查看输出结果。 方法一: 登录DLI管理控制台,选择“作业管理 > Flink作业”。 在
Archive操作并不是每次写数据时都会触发,至少需要满足以下两个条件: Hudi表满足hoodie.keep.max.commits设置的阈值。如果是Flink写hudi至少提交的checkpoint要超过这个阈值;如果是Spark写hudi,写Hudi的次数要超过这个阈值。 Hudi表做过Clean,如果没有做过Clean就不会执行Archive。
>测试)。若能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.12,并提交运行,其代码如下: create table kafkaSource( id bigint, name string, description
2024年5月起,新用户可以直接使用DLI SDK V2,无需开通白名单。 对于2024年5月之前开通并使用DLI服务的用户,如需使用“DLI SDK V2”功能,必须提交工单申请加入白名单。 父主题: 使用BI工具连接DLI分析数据
select regexp_extract('basketball', 'bas(.*?)(ball)',0); 返回99。在DLI上提交正则计算的SQL,需要使用两个"\"作为转义字符。 select regexp_extract('8d99d8', '8d(\\d+)d8');
数据目录名称。默认使用dli数据目录。 如果使用Lakeformation元数据,填写具体的数据目录名称。 dli schema 是 提交作业使用的DLI的数据库名称。 tpch 步骤3:测试使用DBT提交作业至DLI 初始化DBT项目 在空目录下执行以下命令以初始化DBT项目: dbt init 配置dbt_project