-
如何申请扩大配额 - 数据湖探索 DLI
我的配额 单击“申请扩大配额”。 在“新建工单”页面,根据您的需求,填写相关参数。 其中,“问题描述”项请填写需要调整的内容和申请原因。 填写完毕后,勾选协议并单击“提交”。 父主题: 配额相关问题
-
运维指导 - 数据湖探索 DLI
of quota报错 在default队列执行DLI SQL失败,上报超时异常 怎样查看弹性资源池和作业的资源使用情况? 父主题: 队列相关问题
-
怎样查看我的配额 - 数据湖探索 DLI
您可以在“服务配额”页面,查看各项资源的总配额及使用情况。 如果当前配额不能满足业务要求,请参考后续操作,申请扩大配额。 父主题: 配额相关问题
-
怎样配置DLI队列与数据源的网络连通? - 数据湖探索 DLI
息,可以实现队列到和公网的网络打通。 图2 配置DLI队列访问公网流程 详细操作请参考配置DLI 队列与公网网络连通。 父主题: 跨源连接问题
-
Flink Jar作业是否支持上传配置文件,要如何操作? - 数据湖探索 DLI
failed"); e.printStackTrace(); } } 图2 绝对路径配置示例 父主题: Flink Jar作业相关问题
-
如何获取AK/SK? - 数据湖探索 DLI
“立即下载”。 下载成功后,打开凭证文件,获取AK/SK信息。 为防止访问密钥泄露,建议您将其保存到安全的位置。 父主题: 使用API相关问题
-
如何获取项目ID? - 数据湖探索 DLI
在“我的凭证”页面的项目列表中查看项目ID。例如project_id:"5a3314075bfa49b9ae360f4ecd333695"。 父主题: 使用API相关问题
-
作业运维报错 - 数据湖探索 DLI
current account was restricted. Restricted for no budget. 父主题: SQL作业相关问题
-
Flink SQL和Flink Opensource SQL的语法有什么区别? - 数据湖探索 DLI
12(主力版本,推荐使用)。 Flink Opensource SQL1.10。 Flink SQL(已EOS,即将下线)。 父主题: Flink SQL作业相关问题
-
Flink Jar作业运行报错,报错信息为Authentication failed - 数据湖探索 DLI
failed 问题现象 Flink Jar作业运行异常,作业日志中有如下报错信息: org.apache.flink.shaded.curator.org.apache.curator.ConnectionState - Authentication failed 问题原因 因为账
-
DLI增强型跨源连接为什么要创建对等连接 - 数据湖探索 DLI
创建DLI增强型跨源连接时,创建对等连接的目的是打通网络。以MRS为例,如果DLI和MRS集群在同一个VPC中,安全组且放通的情况下,可以不用配置对等连接 父主题: 跨源连接问题
-
如何合并小文件 - 数据湖探索 DLI
如何合并小文件 使用SQL过程中,生成的小文件过多时,会导致作业执行时间过长,且查询对应表时耗时增大,建议对小文件进行合并。 设置配置项。 spark.sql.shuffle.partitions = 分区数量(即此场景下最终生成的文件数量) 执行SQL。 INSERT OVERWRITE
-
欠费导致权限不足 - 数据湖探索 DLI
欠费导致权限不足 使用DLI提交作业时,提示欠费导致权限不足而提交失败,可以通过查看用户token中的roles信息进行确认: op_restrict:表示租户(因余额不足)而受限制。当前账号余额不足后,该账号下的所有在线用户token被吊销,如果再次登录,获取的token会被加
-
怎样删除表数据? - 数据湖探索 DLI
怎样删除表数据? 可通过使用TRUNCATE清除DLI表或者OBS表的数据。 详情请参考清空数据。 父主题: 作业开发
-
Flink SQL作业将OBS表映射为DLI的分区表 - 数据湖探索 DLI
从关联OBS路径中恢复分区信息。 1 alter table car_infos recover partitions; 父主题: Flink SQL作业相关问题
-
Flink SQL中的temp流中数据是否需要定期清理,如何清理? - 数据湖探索 DLI
Flink SQL中的temp流类似于子查询,只是逻辑意义上的流,用于简化SQL逻辑,不会产生数据存储,因而不存在清理问题。 父主题: Flink SQL作业相关问题
-
SQL作业使用咨询 - 数据湖探索 DLI
SQL作业使用咨询 DLI是否支持创建临时表? 问题描述:临时表主要用于存储临时中间结果,当事务结束或者会话结束的时候,临时表的数据可以自动删除。例如MySQL中可以通过:“create temporary table ...” 语法来创建临时表,通过该表存储临时数据,结束事务或
-
Spark作业使用咨询 - 数据湖探索 DLI
Spark作业使用咨询 DLI Spark作业是否支持定时周期任务作业 DLI Spark不支持作业调度,用户可以通过其他服务,例如数据湖管理治理中心DataArts Studio服务进行调度,或者通过API/SDK等方式对作业进行自定义调度 。 使用DataArts Studi
-
Flink Jar作业访问DWS启动异常,提示客户端连接数太多错误 - 数据湖探索 DLI
n_timeout”,然后单击“保存”。 在“修改预览”窗口,确认修改无误后,单击“保存”。 更多问题处理步骤,请参考DWS数据库连接问题。 父主题: Flink Jar作业相关问题
-
Flink Jar作业设置backend为OBS,报错不支持OBS文件系统 - 数据湖探索 DLI
确认客户esdk-obs-java-3.1.3.jar的版本。 确认是集群存在问题。 处理步骤 设置依赖关系provided。 重启clusteragent应用集群升级后的配置。 去掉OBS依赖,否则checkpoint会写不进OBS。 父主题: Flink Jar作业相关问题