检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
怎样查看DLI队列负载? 怎样监控DLI队列上的作业异常? 怎样将老版本的Spark队列切换成通用型队列 在default队列执行DLI SQL失败,提示超时异常怎么办?
失败的情形(例如:jar包冲突),有时日志不会写到OBS桶中 Jobmanager与Taskmanager心跳超时,导致Flink作业异常怎么办? 父主题: Flink作业类
怎样查看DLI的数据扫描量? 按需计费的弹性资源池,如果没提交作业运行就不计费? 想要使用扫描套餐包计费,购买队列还要额外收费吗? 超出套餐包额度的使用量怎么收费? 弹性资源池的实际CUs、CU范围、规格的含义 包年包月弹性资源池设置了定时扩缩容时,怎样计费?
SQL作业如何指定表的部分字段进行表数据的插入 SQL作业运行慢如何定位 怎样查看DLI SQL日志? 怎样查看DLI的执行SQL记录? 执行SQL作业时产生数据倾斜怎么办? SQL作业中存在join操作,因为自动广播导致内存不足,作业一直运行中 为什么SQL作业一直处于“提交中”? 父主题: SQL作业类
2021-03-24 10:02:03 0001 Alice 330106 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org
2021-03-24 10:02:03 0001 Alice 330106 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org
flink保存checkpoint的路径 checkpointPath=obs://bucket/path/ 常见问题 Q:作业运行失败,运行日志中有如下报错信息,应该怎么解决? java.lang.NoSuchMethodError: org.apache.flink.api.java.ClosureCleaner
ency、Isolation、Durability)能力,有助于确保数据的一致性和准确性。 了解更多:执行Insert into后数据重复怎么办? 语法格式 将SELECT查询结果插入到表中 1 2 INSERT INTO [TABLE] [db_name.]table_name
datasource v2 tables is only supported in spark3.3 or later version.”怎么办? 使用default创建DataSource表时引擎版本不低于Spark 3.3.1,如果引擎版本低于Spark 3.3.1则会提示上
2021-03-24 10:02:03,0001,Alice,330106) 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? java.lang.IllegalArgumentException: offset (0) + length (8) exceed
2021-03-24 10:02:03,0001,Alice,330106) 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? org.postgresql.util.PSQLException: ERROR: logical decoding requires
2021-03-24 10:02:03,0001,Alice,330106) 常见问题 Q:Flink作业运行失败,作业运行日志中如下报错信息,应该怎么解决? java.lang.IllegalArgumentException: offset (0) + length (8) exceed
999999999) as string)随机数进行打散。 如果确实因为单个key值倾斜严重且不可对key值拼接随机值打散,则参考执行SQL作业时产生数据倾斜怎么办?处理。 父主题: SQL作业开发类
set location truncate table V1表 √ √ √ × × × × × × V2表 √ √ √ √ √ √ √ √ √ 怎么确认当前用户创建的表是v1还是v2表? 1. 使用datasource语法建表: CREATE TABLE IF NOT EXISTS table_name
A:这是因为输入数据中有重复数据,导致在Redis的set中会进行排重,因此个数变少了。 Q:若Flink作业的日志中有如下报错信息,应该怎么解决? org.apache.flink.table.api.ValidationException: SQL validation failed
多操作。 了解更多实例监控。 图19 设置实例监控 常见问题 如果 DataArts 作业失败,且 DataArts 提供的日志不够详细,怎么办?还能从哪里找更具体的日志?您可以可通过 DataArts 的日志找到 DLI job id,然后根据 DLI job id 在DLI控制台中找到具体的作业。
A:这是因为输入数据中有重复数据,导致在Redis的set中会进行排重,因此个数变少了。 Q:如果Flink作业的日志中有如下报错信息,应该怎么解决? org.apache.flink.table.api.ValidationException: SQL validation failed
datasource v2 tables is only supported in spark3.3 or later version.”怎么办? 使用default创建DataSource表时引擎版本不低于Spark 3.3.1,如果引擎版本低于Spark 3.3.1则会提示上
60.0,2021-03-25 12:03:00,0002,Bob,330110) 常见问题 Q:作业运行失败,运行日志中有如下报错信息,应该怎么解决? java.io.IOException: unable to open JDBC writer ... Caused by: org
格式:IP:端口 测试连接前,请确保外部数据源的安全组已放通队列的网段。 图3 测试队列与数据源的网络连通性 相关操作 创建跨源成功但测试网络连通性失败怎么办? 父主题: 配置DLI与数据源网络连通(增强型跨源连接)