-
Flink jar 如何连接SASL - 数据湖探索 DLI
Flink jar 如何连接SASL_SSL? 使用Flink Jar连接开启SASL_SSL认证的Kafka。 具体操作请参考使用Flink Jar连接开启SASL_SSL认证的Kafka 父主题: Flink Jar作业相关问题
-
查询RDS表 - 数据湖探索 DLI
示例 查询表test_ct中的数据。 1 SELECT * FROM dli_to_rds limit 100; 父主题: 跨源连接RDS表
-
JDBC结果表 - 数据湖探索 DLI
JDBC结果表 功能描述 DLI将Flink作业的输出数据输出到关系型数据库中。 前提条件 要与实例建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。
-
跨源连接DCS表 - 数据湖探索 DLI
跨源连接DCS表 创建DLI表关联DCS 插入数据至DCS表 查询DCS表 父主题: Spark SQL语法参考(即将下线)
-
JDBC结果表 - 数据湖探索 DLI
DLI将Flink作业的输出数据输出到关系型数据库中。 前提条件 要与实例建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规则,请参见《虚拟私有云用户指南》中“安全组”章节。 语法格式
-
跨源连接相关问题 - 数据湖探索 DLI
跨源连接相关问题 跨源连接问题 跨源分析问题 跨源连接运维报错
-
RDS输出流 - 数据湖探索 DLI
username 是 数据库连接用户名。 password 是 数据库连接密码。 db_url 是 数据库连接地址,格式为:"{database_type}://ip:port/database" 目前支持两种数据库连接:MySQL和PostgreSQL MySQL: 'mysql://ip:port/database'
-
通过DLI跨源写DWS表,非空字段出现空值异常 - 数据湖探索 DLI
通过DLI跨源写DWS表,非空字段出现空值异常 问题现象 客户在DWS建表,然后在DLI创建跨源连接读写该表,突然出现如下异常,报错信息显示DLI向该表某非空字段写入了空值,因为非空约束存在导致作业出错。 报错信息如下: DLI.0999: PSQLException: ERROR: dn_6009_6010: null
-
对跨源DWS表执行insert overwrite操作,报错:org.postgresql.util.PSQLException: ERROR: tuple concurrently updated - 数据湖探索 DLI
overwrite操作,报错:org.postgresql.util.PSQLException: ERROR: tuple concurrently updated 问题现象 客户对DWS执行并发insert overwrite操作,报错:org.postgresql.util.PSQLException:
-
插入数据至RDS表 - 数据湖探索 DLI
BY user_age 插入数据“1”到表“test”中 INSERT INTO test VALUES (1); 父主题: 跨源连接RDS表
-
通过跨源表向CloudTable Hbase表导入数据,executor报错:RegionTooBusyException - 数据湖探索 DLI
建议DLI在写入数据时也将数据离散化,避免大量数据写入同一个regionServer,同时,在insert语句后增加distribute by rand()。 父主题: 跨源连接运维报错
-
使用Flink Jar连接开启SASL - 数据湖探索 DLI
使用Flink Jar连接开启SASL_SSL认证的Kafka 概述 本节操作介绍使用Flink Jar连接开启SASL_SSL认证的Kafka的操作方法。 如需使用Flink OpenSource SQL连接开启SASL_SSL认证的Kafka,请参考Flink SQL语法参考-Kafka源表。
-
RDS输出流 - 数据湖探索 DLI
输出通道类型,rds表示输出到关系型数据库中。 username 是 数据库连接用户名。 password 是 数据库连接密码。 db_url 是 数据库连接地址,格式为:"{database_type}://ip:port/database" 目前支持两种数据库连接:MySQL和PostgreSQL MySQL:
-
更新跨源目的端源表后,未同时更新对应跨源表,导致insert作业失败 - 数据湖探索 DLI
更新跨源目的端源表后,未同时更新对应跨源表,导致insert作业失败 问题现象 客户在DLI中创建了DWS跨源连接和DWS跨源表,然后对DWS中的源表schema进行更新,执行DLI作业,发现DWS中源表schema被修改为更新前的形式,导致schema不匹配,作业执行失败。 原因分析
-
跨源连接RDS表中create - 数据湖探索 DLI
跨源连接RDS表中create_date字段类型是datetime,为什么dli中查出来的是时间戳呢? Spark中没有datetime数据类型,其使用的是TIMESTAMP类型。 您可以通过函数进行转换。 例如: select cast(create_date as string)
-
增强型跨源连接(推荐) - 数据湖探索 DLI
增强型跨源连接(推荐) 增强型跨源连接概述 跨源分析开发方式 创建增强型跨源连接 建立DLI与共享VPC中资源的网络连接 删除增强型跨源连接 修改弹性资源池的主机信息 绑定弹性资源池 解绑弹性资源池 添加路由 删除路由 增强型跨源连接权限管理 增强型跨源连接标签管理
-
迁移RDS数据至DLI - 数据湖探索 DLI
创建DLI队列时队列类型需要选择为“SQL队列”。 已创建云数据库RDS的MySQL的数据库实例。具体创建RDS集群的操作可以参考创建RDS MySQL数据库实例。 本示例RDS数据库引擎:MySQL 本示例RDS MySQL数据库版本:5.7。 已创建CDM迁移集群。创建CDM集群的操作可以参考创建CDM集群。 如
-
跨源分析问题 - 数据湖探索 DLI
跨源分析问题 如何实现跨数据源查询 如何实现跨区域访问数据 创建DLI关联RDS表时,如果RDS表有自增主键或者其他自动填充的字段时,在DLI中插入数据时,对应字段如何填写? 父主题: 跨源连接相关问题
-
创建DLI表关联DDS - 数据湖探索 DLI
考增强型跨源连接。 创建增强型跨源连接后,使用DDS提供的"随机连接地址",格式为: "IP:PORT[,IP:PORT]/[DATABASE][.COLLECTION][AUTH_PROPERTIES]" 例如:"192.168.4.62:8635,192.168.5.134:8635/test
-
添加路由 - 数据湖探索 DLI
”。 选择待添加路由的增强型跨源连接,并添加路由。 方法一: 选择待添加的增强型跨源连接,单击操作列的“路由信息”。 单击“添加路由”。 在添加路由的对话框中,填写路由信息。参数说明请参考表1。 单击“确定”。 方法二: 选择待添加的增强型跨源连接,单击操作列的“更多 > 添加路由”。