检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在DLI控制台配置表权限 表权限操作场景 针对不同用户,可以通过权限设置分配不同的表权限。 管理员用户和表的所有者拥有所有权限,不需要进行权限设置且其他用户无法修改其表权限。 给新用户设置表权限时,该用户所在用户组的所属区域需具有Tenant Guest权限。关于Tenant G
avro-confluent.subject 参数来指定。 支持的connector kafka upsert kafka 参数说明 表1 参数说明 参数 是否必选 默认值 类型 说明 format 是 无 String 指定使用格式,此处使用'avro-confluent'。 avro-confluent
常用数据源语法兼容性 语法 Hive Hudi 数据库的show schemas Y Y 数据库的create schema Y Y 数据库的alter schema Y N 数据库的drop schema Y Y 表的show tables/show create table/show
bigint <start_position>[, bigint <nth_appearance>]]) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 str1 是 STRING 待搜索的目标字符串。 如果输入为BIGINT、DOUBLE、DECIMAL或DATETI
int>>,新列名称需要指定为arraylike.element.col2。 col_type:新增列类型,必须指定。 nullable:新增列是否可以为空,可以缺省。 comment:新增列comment,可以缺省。 col_position:列添加位置包括FIRST、AFTER o
回收权限 功能描述 回收已经授予用户或角色的权限。 语法格式 1 REVOKE (privilege,...) ON (resource,..) FROM ((ROLE [db_name].role_name) | (USER user_name)),...); 关键字 ROLE:限定后面的rol
es_fields= "", batch_insert_data_num= "" ); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 输出通道类型,es表示输出到云搜索服务中。 region 是 数据所在的云搜索服务所在区域。 cluster_address
Java SDK概述 操作场景 DLI Java SDK 让您无需关心请求细节即可快速使用数据湖探索服务。本节操作介绍如何获取并使用Java SDK 。 使用须知 要使用DLI Java SDK 访问指定服务的 API ,您需要确认已在DLI控制台开通当前服务并完成服务授权。 Java
分配权限 功能描述 授予用户或角色权限。 语法格式 1 GRANT (privilege,...) ON (resource,..) TO ((ROLE [db_name].role_name) | (USER user_name)),...); 关键字 ROLE:限定后面的role_name是一个角色。
es_fields= "", batch_insert_data_num= "" ); 关键字 表1 关键字说明 参数 是否必选 说明 type 是 输出通道类型,es表示输出到云搜索服务中。 region 是 数据所在的云搜索服务所在区域。 cluster_address
bigint <start_position>[, bigint <nth_appearance>]]) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 str1 是 STRING 待搜索的目标字符串。 如果输入为BIGINT、DOUBLE、DECIMAL或DATETI
<pattern>, string <replace_string>[, bigint <occurrence>]) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 source 是 STRING 待替换的字符 pattern 是 STRING STRING类型常量或正则表达式。待
<pattern>, string <replace_string>[, bigint <occurrence>]) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 source 是 STRING 待替换的字符 pattern 是 STRING STRING类型常量或正则表达式。待
2', 'table-name' = '', 'zookeeper.quorum' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认值 数据 说明 connector 是 无 String 指定使用的连接器,需配置为:hbase-2.2。 table-name
Flink作业概述 DLI支持的两种类型的Flink作业: Flink OpenSource SQL类型作业: 完全兼容社区版的Flink,确保了作业可以在这些Flink版本上无缝运行。 在社区版Flink的基础上,DLI扩展了Connector的支持,新增了Redis、DWS作
2', 'table-name' = '', 'zookeeper.quorum' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认值 数据 说明 connector 是 无 String 指定使用的连接器,需配置为:hbase-2.2。 table-name
message-subject' = '', 'connector.message-column' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 sink的类型,smn表示输出到消息通知服务中 connector.region 是 SMN所在区域
percent_rank() over([partition_clause] [orderby_clause]) 参数说明 表1 参数说明 参数 是否必选 说明 partition_clause 否 指定分区。分区列的值相同的行被视为在同一个窗口内。 orderby_clause 否 指定数据在一个窗口内如何排序。
message-subject' = '', 'connector.message-column' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 sink的类型,smn表示输出到消息通知服务中 connector.region 是 SMN所在区域
percent_rank() over([partition_clause] [orderby_clause]) 参数说明 表1 参数说明 参数 是否必选 说明 partition_clause 否 指定分区。分区列的值相同的行被视为在同一个窗口内。 orderby_clause 否 指定数据在一个窗口内如何排序。