检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
第一个世纪从0001-01-01 00:00:00 AD开始。这个定义适用于所有使用阳历的国家。没有0世纪,直接从公元前1世纪到公元1世纪。 示例: 1 2 3 4 5 SELECT EXTRACT(CENTURY FROM TIMESTAMP '2000-12-16 12:21:13');
OBS数据源名称为obs_server。用户创建和使用外表与非委托方式无差异。关于如何使用OBS数据源,具体请参见从OBS导入数据。 如下示例为某普通用户jim通过外表读取OBS上的数据。 参见以上步骤创建OBS数据源,名称为obs_server。 使用系统管理员dbadmin连
令 cat /proc/sys/fs/pipe-max-size 查看。 该参数只能在Linux内核版本不低于2.6.35的环境下使用。 示例 数据文件存放在“/data” 目录,IP为192.168.0.90,监听端口为5000。 gds -d /data/ -p 192.168
对元数据的操作,以提高效率。 该参数仅8.2.0.100以上集群版本支持。 当前仅支持ACCESS SHARE锁模式,其他锁模式会报错。 示例 向一个外键表上插入数据时,在有主键的表上使用SHARE锁: 1 2 3 4 5 6 7 8 9 10 11 START
该元组对当前用户不可见,用户无法通过SELECT语句查看此元组,无法通过UPDATE语句更新此元组,无法通过DELETE语句删除此元组。 示例 创建用户alice: 1 CREATE ROLE alice PASSWORD '{Password}'; 创建用户bob: 1 CREATE
lookupCacheTimedReloadIntervalDays 数据重载定时周期调度间隔天数 int 当选择TIMED重载策略时,可以设置全量缓存周期调度间隔天数。 1 示例 从Kafka源表中读取数据,将GaussDB(DWS)表作为维表,并将二者生成的宽表信息写入print结果表中,其具体步骤如下: 连接G
DWS端口(默认8000)。部署GDS请参考安装配置和启动GDS。 启动GDS时,可指定任意目录作为数据中转的目录,例如/opt,启动命令示例如下: /opt/gds/bin/gds -d /opt -p 192.168.0.2:5000 -H 192.168.0.1/24 -l
警;而COMPLETE模式下,则主要对列存表的CU进行解析校验。 CASCADE CASCADE模式下会对当前表的所有索引进行检测处理。 示例 1 2 3 4 5 6 7 8 9 10 11 DROP TABLE IF EXISTS CUSTOMER; CREATE
警;而COMPLETE模式下,则主要对列存表的CU进行解析校验。 CASCADE CASCADE模式下会对当前表的所有索引进行检测处理。 示例 使用ANALYZE语句更新表customer_info统计信息: 1 ANALYZE customer_info; 使用ANALYZE
ate清理delta表的存储空间。 HDFSDIRECTORY 只针对HDFS表,删除HDFS表在HDFS存储上表目录下的空值分区目录。 示例 创建分区表customer_address: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
只有在VALIDATION是WITH状态时,才可以指定VERBOSE。 partition_new_name 分区的新名字。 取值范围:字符串,要符合标识符的命名规范。 示例 创建范围分区表customer_address: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Group,目前不支持hdfs表使用。TO NODE主要供内部扩容工具使用,一般用户不应该使用。 PARTITION BY 指定HStore表的初始分区。 示例 创建简单的HStore表: CREATE TABLE warehouse_t1 ( W_WAREHOUSE_SK
TG_TABLE_SCHEMA 触发器所在表的SCHEMA信息。 TG_NARGS 触发器函数参数个数。 TG_ARGV[] 触发器函数参数列表。 示例 创建源表及触发表: 1 2 CREATE TABLE test_trigger_src_tbl(id1 INT, id2 INT, id3
该工具不支持迁移含有动态表名称的TRUNCATE TABLE语句。 例如:l_table :='truncate table ' || itable_name 在此示例中,itable_name表示动态表名称,不受DSC支持。不支持的语句将被原样复制到已迁移的脚本中。 输入:TRUNCATE TABLE,使用Execute
tovac_vacuum_count共29个字段。入参为表的oid。8.3.0及以上集群版本支持。 返回值类型:setof record 示例:查询当前节点public模式下t1表的最近一次访问时间。 1 2 3 4 5 SELECT data_access_timestamp FROM
导入的文件仅支持CSV和text格式。 使用CSV格式进行并行导入时,在如下示例场景中会因为CSV本身的规则和GDS拆分逻辑冲突而导致其中的某些分片导入失败。 场景:csv文件中包含未转义的换行符,且该换行符被quote指定的字符所包含,并且该行数据处于逻辑分片的第一行。 示例:并行导入一个文件big.csv ,正确导入显示内容如下:
schema,否则会报错找不到表。 HDFSDIRECTORY 只针对HDFS表,删除HDFS表在HDFS存储上表目录下的空值分区目录。 示例 清理当前数据库中的所有表: 1 VACUUM; 仅回收表tpcds.web_returns_p1分区P2的空间,不更新统计信息: 1 VACUUM
UTE命令。 [ WITH [ NO ] DATA ] 创建表时,是否也插入查询到的数据。默认是要数据,选择“NO”参数时,则不要数据。 示例 创建表CUSTOMER: 1 2 3 4 5 6 7 8 9 DROP TABLE IF EXISTS CUSTOMER; CREATE
上述新增算子可以分为Local与非Local两类,Local类算子实现了DN内部并行线程间的数据交换,而非Local类算子实现了跨DN的并行线程间的数据交换。 示例说明 以TPCH Q1的并行计划为例: 在这个计划中,实现了Hdfs Scan以及HashAgg算子的并行,并且新增了Local Gather和Split
INTO、DELETE语句的目标列涉及脱敏列。 UPSERT语句允许通过EXCLUDED更新插入数据。如果引用脱敏列更新基表数据,存在误改数据的可能,执行会报错。 示例 以员工表emp,表的属主alice及角色matu、july为例,简要介绍数据脱敏过程。其中,表emp包含员工的姓名、手机号、邮箱、银行卡号、薪资等隐私数据。