检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Hudi DML语法说明 INSERT INTO MERGE INTO UPDATE DELETE COMPACTION SET/RESET ARCHIVELOG CLEAN CLEANARCHIVE Drop Partition 父主题: Hudi SQL语法参考
insertTablet(单设备多行同列) > insertRecordsOfOneDevice (单设备多行不同列) > insertRecords(Object value) (多设备多行不同列) > insertRecords(String value) (多设备多行不同列) > insertRecord(单设备一行)
Hive开源社区版本禁用Transform功能。 MRS Hive提供配置开关,默认为禁用Transform功能,与开源社区版本保持一致。 用户可修改配置开关,开启Transform功能,当开启Transform功能时,存在一定的安全风险。 只有安全模式支持禁用Transform功能,普通模式不支持该功能。 操作步骤
安全模式下Yarn和HBase的权限管理默认是开启的,因此在安全模式下默认需要配置Yarn和HBase权限。 在普通模式下,Yarn和HBase的权限管理默认是关闭的,即任何用户都有权限,因此普通模式下默认不需要配置Yarn和HBase权限。如果用户修改了Yarn或者HBase的配置来开启权限管理,则修改后也需要配置Yarn和HBase权限。
本工程中包含了建立服务端连接、创建数据库、创建数据表、插入数据、查询数据及删除数据表等操作示例。 Flink 开启Kerberos认证集群的样例工程目录“flink-examples/flink-examples-security”。 未开启Kerberos认证集群的样例工程目
insertRecord(); insertTablet(); insertTablets(); insertRecords(); nonQuery(); query(); queryWithTimeout(); rawDataQuery();
不同的连接器或作业的配置项不同。 更新个别配置项时,使用参数选项方式。 创建连接器或作业时,使用作业模板方式。 本工具目前支持FTP、HDFS、JDBC、MySQL、Oracle以及Oracle专用连接器,如果使用其他类型连接器,建议使用开源sqoop-shell工具。 参数说明 例如,Loader
不同的连接器或作业的配置项不同。 更新个别配置项时,使用参数选项方式。 创建连接器或作业时,使用作业模板方式。 本工具目前支持FTP、HDFS、JDBC、MySQL、Oracle以及Oracle专用连接器,如果使用其他类型连接器,建议使用开源sqoop-shell工具。 参数说明 例如,Loader
插入表数据 本章节主要介绍Iceberg插入表数据的SQL基本语法和使用说明。 基本语法 INSERT INTO tableIndentifier [VALUES(value)][SELECT query]; INSERT OVERWRITE tableIndentifier SELECT;
配置跨集群互信下Hive on HBase 两个开启Kerberos认证的互信集群中,使用Hive集群操作HBase集群,将目的端HBase集群的HBase关键配置项配置到源端Hive集群的HiveServer中。 前提条件 两个开启Kerberos认证的安全集群已完成跨集群互信配置。
准备MapReduce应用开发用户 开发用户用于运行样例工程。用户需要有组件权限,才能运行样例工程。 前提条件 MRS服务集群开启了Kerberos认证,没有开启Kerberos认证的集群忽略该步骤。 操作步骤 登录MRS Manager,在MRS Manager界面选择“系统设置 >
配置sql-standard-with-group创建schema失败报Access Denied 用户问题 配置sql-standard-with-group创建schema失败,报Access Denied的错误。 问题现象 报错如下: CREATE SCHEMA hive.sf2
Spark SQL无法查询到Parquet类型的Hive表的新插入数据 问题 为什么通过Spark SQL无法查询到存储类型为Parquet的Hive表的新插入数据?主要有以下两种场景存在这个问题: 对于分区表和非分区表,在Hive客户端中执行插入数据的操作后,会出现Spark SQL无法查询到最新插入的数据的问题。
通过sqoop import命令从PgSQL导出数据到Hive时报错 背景 使用sqoop import命令抽取开源PgSQL数据库内容到MRS HDFS或Hive中。 用户问题 使用sqoop命令可以查询PgSQL表,但是执行sqoop import命令导入导出时报错: The
开发Flink应用 Flink DataStream样例程序 Flink Kafka样例程序 Flink开启Checkpoint样例程序 Flink Job Pipeline样例程序 Flink Join样例程序 Flink Jar作业提交SQL样例程序 FlinkServer REST
开发Flink应用 Flink DataStream样例程序 Flink Kafka样例程序 Flink开启Checkpoint样例程序 Flink Job Pipeline样例程序 Flink Join样例程序 Flink Jar作业提交SQL样例程序 FlinkServer REST
ZooKeeper设计最初含有Nio包,且不能较好的支持3.5版本后的SSL。为了解决这个问题,Netty被加入到ZooKeeper中。所以如果用户需要使用SSL,启用Netty并设置Server端和Client端的以下参数。 开源的服务端只支持简单的文本密码,这可能导致相关安全问题。为此在服务端将不再使用此类文本密码。
再自动执行。如果挂起正在执行的备份任务,该任务会停止运行。需要解锁重新运行该任务时,选择“更多 > 重新执行”。 “更多 > 重新执行” 启用自动备份任务。 “更多 > 查询历史”或“查询历史” 打开任务运行日志窗口,查看运行详细情况以及备份路径。 “查看” 检查恢复任务的参数设置。
保存的commit数量。 执行cleaning有两种方式: 同步clean由参数hoodie.clean.automatic控制,默认自动开启。 关闭同步clean: datasource写入时可以通过.option("hoodie.clean.automatic", "false")来关闭自动clean。
pache官网相关内容。 图1 HBase数据迁移示意 方案优势 场景化迁移通过迁移快照数据然后再恢复表数据的方法,能大大提升迁移效率。 约束与限制 搬迁数据量较大时,对网络通信要求较高,执行搬迁任务时,可能会影响其他业务,建议在业务空闲期进行数据迁移任务。 全量数据迁移 登录CDM管理控制台。