检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
<name>fs.obs.access.key</name> <value>获取AK/SK和Endpoint信息准备的AK</value> </property> <property> <name>fs.obs.secret.key</name>
SELECT命令通过指定带有表属性的字段列表来创建CarbonData Table。 命令格式 CREATE TABLE [IF NOT EXISTS] [db_name.]table_name STORED AS carbondata [TBLPROPERTIES (key1=val1, key2=val2, ..
TABLE db_name.table_name WHERE SEGMENT.ID IN (segment_id1,segment_id2); 参数描述 表1 DELETE LOAD参数描述 参数 描述 segment_id 将要删除的Segment的ID。 db_name Datab
TABLE db_name.table_name WHERE SEGMENT.ID IN (segment_id1,segment_id2); 参数描述 表1 DELETE LOAD参数描述 参数 描述 segment_id 将要删除的Segment的ID。 db_name Datab
TABLE [db_name.]table_name OPTIONS(property_name=property_value, ...); 参数描述 表1 LOAD DATA参数描述 参数 描述 folder_path 原始CSV数据文件夹或者文件的路径。 db_name Databa
TABLE [db_name.]table_name OPTIONS(property_name=property_value, ...); 参数描述 表1 LOAD DATA参数描述 参数 描述 folder_path 原始CSV数据文件夹或者文件的路径。 db_name Databa
[IN/FROM schema_name] [WITH TABLES LIKE pattern] 描述 列出catalogName为mv中的所有物化视图以及对应的数据表。如果希望只查看某个schema中的物化视图,可以使用子句[IN/FROM schema_name] 通过可选子句“LIK
根据条件更新表数据。 限制 仅支持orc格式的事务表,并且不能为external Table。 不支持set(column_name1,column_name2,…)=(value1,value2,…)的语法。 示例 -- 创建事务表 create table upd_tb(col1
RESET SESSION 语法 RESET SESSION name RESET SESSION catalog.name 描述 重置当前会话的指定属性。 示例 RESET SESSION optimize_hash_generation; RESET SESSION hive
IF NOT EXISTS ] [ ctlg_dest.]schema_name WITH ( [catalog = ctlg_name,] schema = schm_name, [property_name = expression, ...] ) 创建一个virtual sc
DELETE FROM TABLE db_name.table_name WHERE SEGMENT.STARTTIME BEFORE date_value; 参数描述 表1 DELETE SEGMENT by DATE参数描述 参数 描述 db_name Database名称,若未指定,则使用当前database。
DELETE FROM TABLE db_name.table_name WHERE SEGMENT.STARTTIME BEFORE date_value; 参数描述 表1 DELETE SEGMENT by DATE参数描述 参数 描述 db_name Database名称,如果未指定,则使用当前database。
后缀为ro的表代表读优化视图。例如:同步给Hive的hudi表名为${table_name}, 同步Hive后hive表中多出两张表分别为${table_name}_rt,和${table_name}_ro。 实时视图读取(Hive,SparkSQL为例):直接读取Hive里面存储的后缀为_rt的hudi表即可。
后缀为ro的表代表读优化视图。例如:同步给Hive的hudi表名为${table_name}, 同步Hive后hive表中多出两张表分别为${table_name}_rt和${table_name}_ro。 实时视图读取(Hive,SparkSQL为例):直接读取Hive里面存储的后缀为_rt的hudi表即可。
创建t_task_log表,列族f, TTL设置86400秒过期 create 't_task_log',{NAME => 'f', TTL=>'86400'} 在已有表的基础上指定: alter "t_task_log",NAME=>'data',TTL=>'86400' #设置TTL值,作用于列族data
INTO [database_name.]table [(c1, c2, c3)] VALUES (v11, v12, v13), (v21, v22, v23), ... 方法二:使用SELECT的结果写入。 INSERT INTO [database_name.]table [(c1
增量视图读取(Hive为例,${table_name}表示表名称): set hoodie.${table_name}.consume.mode=INCREMENTAL; //设置增量读取模式 set hoodie.${table_name}.consume.max.commits=3;
删除表 本章节主要介绍Iceberg删除表的SQL基本语法和使用说明。 基本语法 DROP TABLE [db_name.]table_name [PURGE]; DROP TABLE命令默认只删除元数据,不删除数据,需指定PURGE参数后才会删除数据。 使用示例 删除表元数据:
增量视图读取(Hive为例,${table_name}表示表名称): set hoodie.${table_name}.consume.mode=INCREMENTAL; //设置增量读取模式 set hoodie.${table_name}.consume.max.commits=3;
INTO [database_name.]table [(c1, c2, c3)] VALUES (v11, v12, v13), (v21, v22, v23), ... 方法二:使用SELECT的结果写入。 INSERT INTO [database_name.]table [(c1