检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
细粒度权限:dli:table:alter。 由LakeFormation提供的元数据服务,权限配置详见LakeFormation文档。 示例 ALTER TABLE table1 RENAME COLUMN addr to address ALTER TABLE table1
EXTERNAL可用于指定创建外部表;STORED AS能被用于指定文件存储的格式;LOCATION能被用于指定在OBS上存储的路径。 示例 创建一个新表orders,使用子句with指定创建表的存储格式、存储位置、以及是否为外表。 通过“auto.purge”参数可以指定涉及
分区列名对应的值。 注意事项 DLI数据多版本功能当前仅支持通过Hive语法创建的OBS表,具体建表语法可以参考使用Hive语法创建OBS表。 示例 在DLI数据多版本中,查看表test_table多版本备份数据。 1 SHOW HISTORY FOR TABLE test_table;
细粒度权限:dli:table:alter。 由LakeFormation提供的元数据服务,权限配置详见LakeFormation文档。 示例 alter table delta_table0 add constraint const_price check(price>0); alter
细粒度权限:dli:table:describeTable。 由LakeFormation提供的元数据服务,权限配置详见LakeFormation文档。 示例 DESCRIBE FORMATTED delta_table0; DESCRIBE FORMATTED delta.`obs://bu
表1 选项 是否必要 默认值 类型 描述 connector 是 无 String 指定需要使用的连接器,此处应为'blackhole'。 示例 通过DataGen源表产生数据,BlackHole结果表接收传来的数据。 create table datagenSource ( user_id
jar httpcore-nio-4.4.4.jar - Flink 1.7.2 依赖包 Flink 1.7.2作业程序开发的样例代码可以参考DLI样例代码中的“luxor-demo\dli-flink-demo”。 表6 Flink 1.7.2 依赖包 依赖包名称 bcpkix-jdk15on-1
VARYING(n) TEXT STRING BINARY VARBINARY BLOB BYTEA BYTES - ARRAY ARRAY 示例 使用JDBC作为数据源,Print作为sink,从RDS MySQL数据库中读取数据,并写入到Print中。 参考增强型跨源连接,根据RDS
为0则表示不根据时间刷新 connector.write.max-retries 否 3 Integer 写数据失败时的最大尝试次数,默认值为:3。 示例 从Kafka中读取数据,并将数据插入到数据库为flink、表名为order的ClickHouse数据库中,其具体步骤如下(clickhouse版本为MRS的21
is_partition_column 是 Boolean 表示该列是否为分区列,“true”表示为分区列,“false”为非分区列,默认为“false”。 请求示例 无 响应示例 MANAGED类型表 { "is_success": true, "message": "", "column_count":
view_name column的格式为:databases.db_name.tables.table_name.columns.column_name 示例 回收用户user_name1对于数据库db1的删除数据库权限。 1 REVOKE DROP_DATABASE ON databases.db1
支持通过unicode编码指定分割符,例如:'DELIMITER'='\u0001'。 单引号('),单引号必须在双引号(" ")内。例如:'DELIMITER'= "'"。 示例 1 2 3 4 INSERT OVERWRITE DIRECTORY 'obs://bucket/dir' USING csv
INTERSECT [DISTINCT] query INTERSECT仅返回第一个和第二个查询的结果相交的行。以下是最简单的INTERSECT子句之一的示例。它选择值13和42,并将此结果集与选择值13的第二个查询合并。由于42仅在第一个查询的结果集中,因此不包含在最终结果中。 SELECT *
执行show_logfile_records时,通过merge控制是否将多个log file中的record合并在一起返回 否 limit 限制返回结果的条数 否 示例 call show_logfile_metadata(table => 'hudi_mor', log_file_path_pattern
需要查询表的表名,支持database.tablename格式 是 instant_time 某次commit对应的时间戳 是 limit 限制返回结果的条数 否 示例 call show_commit_files(table=>'hudi_mor', instant_time=>'20230216144548249');
table_name 需要查询的表的表名,支持database.tablename格式 instant 需要查询的instant time时间戳 示例 call show_active_instant_detail(table => 'hudi_table1', instant => '
需要定义的谓语句,筛选需要Clustering的分区 否 order 指定clustering的排序字段 否 limit 展示查询结果的条数 否 示例 call show_clustering(table => 'hudi_table1'); call run_clustering(table
字符串。 如果target未包含指定分隔符,则返回目标字符串。 separator VARCHAR 指定的分隔符,当前仅支持单字符分隔。 示例 准备测试输入数据 表2 测试源表disSource数据和分隔符 target(STRING) separator (VARCHAR) test-flink
需要指定DATEFORMAT及TIMESTAMPFORMAT选项,否则将以默认的日期及时间戳格式进行解析。 示例 导入数据前已参考创建OBS表或者创建DLI表中的示例描述创建对应的表。 可使用下列语句将CSV文件导入到DLI表,“t”为表名。 1 2 LOAD DATA INPATH
选择Spark版本。在下拉列表中选择支持的Spark版本,推荐使用最新版本。 不建议长期混用不同版本的Spark引擎。 长期混用不同版本的Spark引擎会导致代码在新旧版本之间不兼容,影响作业的执行效率。 当作业依赖于特定版本的库或组件,长期混用不同版本的Spark引擎可能会导致作业因依赖冲突而执行失败。