检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
LI与不同VPC中的数据源之间的网络连通。 当DLI需要访问外部数据源,而这些数据源位于不同的VPC中时,由于网络隔离,DLI默认无法直接读取这些数据源的数据。通过创建增强型跨源连接,可以采用对等连接的方式打通DLI与数据源的VPC网络,从而实现数据的互通和跨源分析。 增强型跨源连接的优势:
计费详情可参考《数据湖探索价格详情》。 如果在扣费时间段内没有执行过作业,则请继续排查是否是因为存储了大量数据而产生的计费。具体操作请参考数据存储。 Flink作业 进入“作业管理”>“Flink作业”页面。 执行作业使用的是按需的弹性资源池下的队列,则执行作业按CU时计费。 计费详情可参考《数据湖探索价格详情》。
大数据ETL:具备TB~EB级运营商数据治理能力,能快速将海量运营商数据做ETL处理,为分布式批处理计算提供分布式数据集。 高吞吐低时延:采用Apache Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、MRS-Kafka、DMS-Kafka消费数据,单CU每秒吞吐1千~2万条消息。
的分区,当使用INSERT OVERWRITE语句向表中写入“2021-02”这个分区的数据时,会把“2021-01”的分区数据也覆盖掉。 当前配置设置为“true”时,DLI不会提前删除分区,而是在运行时覆盖那些有数据写入的分区。 spark.sql.files.maxPartitionBytes
典型场景示例:迁移Hive数据至DLI Kafka CDM 典型场景示例:迁移Kafka数据至DLI Elasticsearch CDM 典型场景示例:迁移Elasticsearch数据至DLI RDS CDM 典型场景示例:迁移RDS数据至DLI DWS CDM 典型场景示例:迁移DWS数据至DLI
在SQL作业中创建数据库(database),表(table) , 通过SQL或Spark程序作业读取插入数据。 在Spark程序作业中创建数据库(database),表(table), 通过SQL或Spark程序作业读取插入数据。 环境准备 在进行Spark 作业访问DLI元数据开发前,请准备以下开发环境。
OPTIONS:导出时的属性列表,为可选项。 参数 表1 INSERT OVERWRITE DIRECTORY参数描述 参数 描述 path 要将查询结果写入的OBS路径。 file_format 写入的文件格式,支持按CSV、Parquet、ORC、JSON、Avro格式。 file_format为csv时,options参数可以参考表3。
M“作业管理”界面,支持作业分组显示、按组批量启动作业、按分组导出作业等操作。 是否定时执行:如果需要配置作业定时自动执行,请参见配置定时任务。这里保持默认值“否”。 抽取并发数:设置同时执行的抽取任务数。这里保持默认值“1”。 是否写入脏数据:如果需要将作业执行过程中处理失败的
JDBC版本2.X版本功能重构后,仅支持从DLI作业桶读取查询结果,如需使用该特性需具备以下条件: 在DLI管理控制台“全局配置 > 工程配置”中完成作业桶的配置。 2024年5月起,新用户可以直接使用DLI服务的“查询结果写入桶”功能,无需开通白名单。 对于2024年5月之前开通
对查询结果进行限制,number参数仅支持INT类型。 注意事项 所查询的表必须是已经存在的表,否则提示查询错误。 在DLI管理控制台提交SQL语句读取binary类型的数据进行展示时,会对binary数据进行Base64转换。 示例 将表student中,name为Mike的数据记录查询出来,并根据字段score升序排序。
Kafka_SSL类型跨源认证支持连接的数据源如表1所示。 表1 Kafka_SSL类型跨源认证支持连接的数据源 作业类型 表类型 数据源 约束与限制 Flink OpenSource SQL 源表、结果表 Kafka DMS Kafka开启SASL_SSL认证。 MRS Kafka开启SASL认证。
详细操作请参考访问DWS和访问SQL库表。 如何查看Spark内置依赖包的版本? DLI内置依赖包是平台默认提供的依赖包,用户打包Spark或Flink jar作业jar包时,不需要额外上传这些依赖包,以免与平台内置依赖包冲突。 查看Spark内置依赖包的版本请参考内置依赖包。 资源包管理中的包是否能够下载
commits=30 // 默认值为30,根据业务场景指定 hoodie.keep.min.commits=20 // 默认值为20,根据业务场景指定 Flink(with属性里设置如下参数,写数据时触发) hoodie.archive.automatic=true archive.max_commits=30
删除SQL模板 功能介绍 该接口用于批量删除SQL模板。 调试 您可以在API Explorer中调试该接口。 URI URI格式: POST /v1.0/{project_id}/sqls-deletion 参数说明 表1 URI参数说明 参数 是否必选 参数类型 描述 project_id
使用DLI分析账单消费数据 以DLI实际消费数据为样例,介绍使用DLI进行账单分析和成本优化的措施。 使用DLI分析电商实时业务数据 使用DLI Flink完成电商业务实时数据的分析处理。 配置DBeaver连接DLI进行数据查询和分析 介绍DBeaver连接DLI并提交SQL查询的操作步骤。
(单位为“GB”)收取计算费用。 SQL类型队列:SQL队列支持提交Spark SQL作业。 通用队列:支持Spark程序、Flink SQL、Flink Jar作业。 不支持队列类型切换,如需使用其他队列类型,请重新购买新的队列。 管理队列 不支持切换队列的计费模式。 队列不支持切换区域。
过建立增强型跨源连接打通DLI和数据源之间的网络,DLI才能够访问、导入、查询、分析其他数据源的数据。 例如:DLI连接MRS、RDS、CSS、Kafka、DWS时,需要打通DLI和对应数据源VPC之间的网络,才能实现数据互通。 本节操作介绍在控制台创建增强型跨源连接的操作步骤。
log) 低 (读取parquet文件性能) COW表查询 实时视图读取(SparkSQL为例):直接读取元数据服务里面存储的Hudi表即可,${table_name}表示表名称。 select (字段 or 聚合函数) from ${table_name}; 实时视图读取(Spark
Cluster页面中,填写作业运行的相关信息。 图3 Connect Cluster 表1 Connect Cluster 参数名称 说明 配置样例 Service Type 连接的服务名称。 DLI Pool Name Notebook作业运行所在队列对应的弹性资源池。 本例配置为步骤1:创建弹
OPTIONS ('url'='jdbc:mysql://192.168.6.150:3306','dbtable'='test.customer','user'='root','password'='**','driver'='com.mysql.jdbc.Driver')");