-
手动停止了Flink作业,再次启动时没有提示从哪个Checkpoint恢复 - 数据湖探索 DLI
手动停止了Flink作业,再次启动时没有提示从哪个Checkpoint恢复 问题现象 在创建Flink作业时开启了Checkpoint,指定了Checkpoint保存的OBS桶。手工停止Flink作业后,再次启动该Flink作业没有提示从哪个Checkpoint恢复。 解决方案 由于Flink
-
使用DLI Flink SQL进行电商实时业务数据分析 - 数据湖探索 DLI
了解Kafka计费说明。 RDS MySQL 数据库 RDS for MySQL提供在线云数据库服务。 RDS对您选择的数据库实例、数据库存储和备份存储(可选)收费。 了解RDS计费说明。 DLV DLV适配云上云下多种数据源,提供丰富多样的可视化组件,快速定制数据大屏。 使用DLV服
-
创建Hive Catalog - 数据湖探索 DLI
Catalog 简介 Catalog提供了元数据信息,例如数据库、表、分区、视图以及数据库或其他外部系统中存储的函数和信息。 数据处理最关键的方面之一是管理元数据。 元数据可以是临时的,例如临时表、或者通过TableEnvironment注册的UDF。 元数据也可以是持久化的,例如Hive
-
ClickHouse结果表 - 数据湖探索 DLI
ttp_port”配置参数值。默认为:21425。 数据库名为ClickHouse集群创建的数据库名称。 connector.table 是 要创建的ClickHouse的表名。 connector.driver 否 连接数据库所需要的驱动。 如果建表时不指定该参数,驱动会自动通过ClickHouse的url提取。
-
JDBC维表 - 数据湖探索 DLI
说明 connector 是 数据源类型,固定为:jdbc。 url 是 数据库的URL。 table-name 是 读取数据库中的数据所在的表名。 driver 否 连接数据库所需要的驱动。若未配置,则会自动通过URL提取。 username 否 数据库认证用户名,需要和'password'一起配置。
-
Debezium Format - 数据湖探索 DLI
INSERT / UPDATE / DELETE 消息到 Flink SQL 系统中。在很多情况下,利用这个特性非常的有用,例如 将增量数据从数据库同步到其他系统 日志审计 数据库的实时物化视图 关联维度数据库的变更历史,等等。 参数说明 表1 参数 是否必选 默认值 是否必选 描述
-
创建RDS跨源表报空指针错误 - 数据湖探索 DLI
创建RDS跨源表报空指针错误 问题现象 客户创建RDS跨源表失败,报空指针的错误。 原因分析 客户建表语句: CREATE TABLE IF NOT EXISTS dli_to_rds USING JDBC OPTIONS ( 'url'='jdbc:mysql://to-r
-
DLI的计费模式有哪些? - 数据湖探索 DLI
DLI的计费模式有哪些? DLI在不同的计费项下有不同的计费模式,具体详见表1说明。 表1 DLI计费模式 计费项 计费模式 计费模式说明 计算计费 包年/包月 按照弹性资源池包年/包月的固定费用计费。 按需计费 按需弹性资源池资源使用CU时进行计费。 计算费用=单价*CU数*小时数
-
从Kafka读取数据写入到RDS - 数据湖探索 DLI
步骤3:创建RDS数据库和表 登录RDS管理控制台,在“实例管理”界面,选择已创建的RDS MySQL实例,选择操作列的“更多 > 登录”,进入数据管理服务实例登录界面。 输入实例登录的用户名和密码。单击“登录”,即可进入RDS MySQL数据库并进行管理。 在数据库实例界面,单
-
scala样例代码 - 数据湖探索 DLI
表名",访问PostGre集群填写"模式名.表名"。 说明: 如果数据库和表不存在,请先创建数据库和表,否则系统会报错并且运行失败。 user RDS数据库用户名。 password RDS数据库用户名对应密码。 driver jdbc驱动类名,访问MySQL集群请填写:"com.mysql.jdbc.
-
JDBC源表 - 数据湖探索 DLI
'url' = 'jdbc:mysql://MySQLAddress:MySQLPort/flink',--flink为RDS MySQL创建的数据库名 'table-name' = 'orders', 'username' = 'MySQLUsername', 'password'
-
创建并提交Flink OpenSource SQL作业 - 数据湖探索 DLI
其他参数保持默认即可。 步骤2:准备数据输出通道 采用RDS作为数据输出通道,创建RDS MySQL实例,具体操作请参见《云数据库MySQL快速入门》中的“MySQL快速入门”章节。 登录RDS管理控制台。 在管理控制台左上角选择区域。 单击“购买数据库实例”配置相关参数。主要参数的填下说明如下,其他参数保持默认值即可。
-
作业开发 - 数据湖探索 DLI
作业开发 Spark如何将数据写入到DLI表中 通用队列操作OBS表如何设置AK/SK 如何查看DLI Spark作业的实际资源使用情况 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库? 如何在DLI中运行复杂PySpark程序?
-
创建并提交SQL作业 - 数据湖探索 DLI
创建并提交SQL作业 场景描述 本章节指导用户通过API创建并查询SQL作业。 约束限制 新队列第一次运行作业时,需要一定的时间,通常为6~10分钟。 涉及接口 创建队列:创建队列。 创建数据库:创建数据库。 创建表:创建表。 导入数据:导入待查询的数据。 查询作业详细信息:查询导入数据是否正确。
-
为什么Spark3.x的作业日志中打印找不到global - 数据湖探索 DLI
x的作业日志中打印找不到global_temp数据库 问题描述 Spark3.x的作业日志中提示找不到global_temp数据库。 根因分析 global_temp数据库是Spark3.x默认内置的数据库,是Spark的全局临时视图。 通常在Spark作业执行注册viewManager时,会校验该数据库在meta
-
包年/包月计费模式的DLI资源可以和按需计费模式相互转换吗? - 数据湖探索 DLI
包年/包月计费模式的DLI资源可以和按需计费模式相互转换吗? DLI暂不支持变更资源的计费模式。 请您根据业务场景提前做好资源规划,如资源消耗较大,建议您选择包年/包月或购买套餐包的形式更加优惠。 自建队列购买方式如下: 购买队列请参考创建队列。 弹性资源池购买方式如下: 具体弹
-
DWS结果表 - 数据湖探索 DLI
DLI将Flink作业的输出数据输出到数据仓库服务(DWS)中。DWS数据库内核兼容PostgreSQL,PostgreSQL数据库可存储更加复杂类型的数据,支持空间信息服务、多版本并发控制(MVCC)、高并发,适用场景包括位置应用、金融保险、互联网电商等。 数据仓库服务(Data Warehouse
-
数据湖探索 DLI - 数据湖探索 DLI
Mongo,DIS,DMS,DWS,MRS HBase,MRS Kafka,MRS OpenTSDB,OBS,RDS MySQL,RDS PostGre,SMN。具体请参考DLI支持访问的数据源。 说明: 访问跨源表需要使用已经创建跨源连接的队列。 跨源表不支持Preview预览功能。 在同
-
执行作业的用户数据库和表权限不足导致作业运行失败 - 数据湖探索 DLI
SS_META) 解决方案 需要给执行作业的用户赋数据库的操作权限,具体操作参考如下: 在DLI管理控制台左侧,单击“数据管理”>“库表管理”。 单击所选数据库“操作”栏中的“权限管理”,将显示该数据库对应的权限信息。 在数据库权限管理页面右上角单击“授权”。 在“授权”弹出框中
-
DDS输出流 - 数据湖探索 DLI
监控和告警等功能。 DDS的更多信息,请参见《文档数据库服务用户指南》。 前提条件 请务必确保您的账户下已在文档数据库服务(DDS)里创建了DDS实例。 如何创建DDS实例,请参考《文档数据库服务快速入门》中“快速购买文档数据库实例”章节。 目前仅支持未开启SSL认证的集群实例,不支持副本集与单节点的类型实例。