检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
select col1[1] from row_tb; -- 1 IPADDRESS IP地址,可以表征IPv4或者IPv6地址。但在系统内,该类型是一个统一的IPv6地址。 对于IPv4的支持,是通过将IPv4映射到IPv6的取值范围(RFC 4291#section-2.5
更新,比如更新一个月前的数据,需要将该值调大 Flink On Hudi同步元数据到Hive 启动此特性后,Flink写数据至Hudi表将自动在Hive上创建出Hudi表并同步添加分区,然后供SparkSQL、Hive等服务读取Hudi表数据。 如下是支持的两种同步元数据方式,后续操作步骤以JDBC方式为示例:
物化视图的改写的核心原理是逻辑上创建的物化视图的数据要包含未来的查询语句要查询的数据,也可以是未来查询中的子查询要包含的全部数据。建议用户打开自动创建物化视图功能针对性的创建物化视图,以下为部分场景示例: 创建物化视图SQL样例中省略“CREATE MATERIALIZED VIEW
点的请求流量,通过聚合分析,识别出请求偏高的节点和Region,有助于快速发现热点问题;并提供一定的热点问题自愈能力,比如热点Region自动转移或Split。对于无法提供自愈的热点场景(单rowkey热点、顺序写热点等),提供了热点限流的能力,避免单点问题影响同节点的其他正常业务。
其他Kafka配置,可以接受任意Kafka支持的消费配置,配置需要加前缀“kafka.”。 Taildir Source Taildir Source监控目录下文件的变化并自动读取文件内容,可实现实时数据传输,常用配置如下表所示: 表4 Taildir Source常用配置 参数 默认值 描述 channels -
副本名称,一般用{replica}即可。 Distributed表引擎 Distributed表引擎本身不存储任何数据,而是作为数据分片的透明代理,能够自动路由数据到集群中的各个节点,分布式表需要和其他本地数据表一起协同工作。分布式表会将接收到的读写任务分发到各个本地表,而实际上数据的存储在各个节点的本地表中。
S的顺序将保持不变。 如果SORT_COLUMNS包含任意的sourcecolumns,但是没有包含handler列,则handler列将自动插入到SORT_COLUMNS中的sourcecolumns之前。 如果SORT_COLUMNS需要包含任意的sourcecolumns,
出于安全考虑,建议用户定期更换自定义密码(例如三个月更换一次),并重新生成各项证书和信任列表。 在FusionInsight Manager管理界面,选择“系统 > 权限 > 用户”,选择“更多 > 下载认证凭据”下载用户flume_hdfs的kerberos证书文件并保存在本地。 配置Flume
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 请求处理结果 错误码 请参见错误码。 父主题: 集群管理接口
相关依赖包,具体操作可参考配置并导入样例工程。 图1 ClickHouse样例工程示例 本地配置好Maven及SDK相关参数后,样例工程会自动加载相关依赖包。 在本示例工程中,程序通过配置文件中的IP地址信息及用户信息与ClickHouse服务端进行连接。因此工程导入完成后,需要
如需添加更多规则,可单击按钮添加。 单击“Add”,在策略列表可查看策略的基本信息。 用户通过Spark2x客户端对配置了数据脱敏策略的表执行select操作,系统将对数据进行处理后进行展示。 父主题: Ranger权限策略配置示例
如需添加更多规则,可单击按钮添加。 单击“Add”,在策略列表可查看策略的基本信息。 用户通过Spark2x客户端对配置了数据脱敏策略的表执行select操作,系统将对数据进行处理后进行展示。 父主题: Ranger权限策略配置示例
其他Kafka配置,可以接受任意Kafka支持的消费配置,配置需要加前缀“kafka.”。 Taildir Source Taildir Source监控目录下文件的变化并自动读取文件内容,可实现实时数据传输,常用配置如下表所示: 表10 Taildir Source常用配置 参数 默认值 描述 channels
当scale_type为缩容且该参数不为空时,删除指定的Task节点。 当scale_type为缩容且server_ids为空时,按照系统规则自动选择删除Task节点。 取值范围: 不涉及 默认取值: 不涉及 instances 是 Integer 参数解释: 扩容或缩容的节点数。 约束限制:
导入任何格式的文件,不对文件做任何处理。 说明: 文件类型选择“TEXT_FILE”或“SEQUENCE_FILE”导入时,Loader会自动根据文件的后缀选择对应的解压方法,对文件进行解压。 压缩格式 在下拉菜单中选择数据导入HDFS后保存文件的压缩格式,未配置或选择NONE表示不压缩数据。
认证的集群中没有额外的权限。 check_sec_ldap 用于内部测试主LDAP是否工作正常。用户组随机存在,每次测试时创建,测试完成后自动删除。系统内部组,仅限组件间内部使用。 Manager_tenant 租户系统用户组。系统内部组,仅限组件间内部使用,且仅在已启用Kerberos认证的集群中使用。
和删除文件/文件夹等相关接口操作示例。 hdfs-c-example HDFS C语言开发代码样例。 本示例提供了基于C语言的HDFS文件系统连接、文件操作如创建文件、读写文件、追加文件、删除文件等。 HetuEngine 开启Kerberos认证集群的样例工程目录为“hetu-
fmt.Println(err) } } 更多编程语言的SDK代码示例,请参见API Explorer的代码示例页签,可生成自动对应的SDK代码示例。 状态码 状态码 描述 200 操作成功。 错误码 请参见错误码。 父主题: 标签管理接口
permissions 创建新分区时用户的权限。 location 新分区的存放位置。 ifNotExists 如果设置为true, 当分区已经存在,系统报错。 返回结果 参数 描述 database 数据库名 table 表名 partitions 分区名 例子 curl -i -u : --negotiate
permissions 创建新分区时用户的权限。 location 新分区的存放位置。 ifNotExists 如果设置为true, 当分区已经存在,系统报错。 返回结果 参数 描述 database 数据库名 table 表名 partitions 分区名 例子 curl -i -u : --insecure