检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
wal.hsync 设置是否启用WAL文件耐久性以将WAL数据持久化到磁盘。如果将该参数设置为“true”,则性能将受到影响,因为每个WAL的编辑都会被Hadoop fsync同步到磁盘上。 false hbase.hfile.hsync 设置是否启用Hfile耐久性以将数据持久
表2 属性描述 属性 描述 carbon.options.bad.records.logger.enable 启用或禁用bad record日志记录。 carbon.options.bad.records.action 指定bad record操作,例如,强制(force),重定
ix内容为“test”。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 owner String 参数解释: 文件拥有者。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 group String 参数解释: 文件属组。 约束限制: 不涉及 取值范围: 不涉及
方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以及“_”和“-”组成,且长度为[1-64]个字符。 默认取值: 不涉及 project_id 是 String 参数解释: 项目编号。获取方法,请参见获取项目ID。 约束限制: 不涉及 取值范围:
的RegionServer实例,请分多次修改操作进行分配。 开启跨AZ特性时,分配操作需要保证分配结果能使每个AZ中均存在该RSGroup的RegionServer实例,而且无法对开启前已分配的RSGroup进行AZ约束校验。 勾选欲分配的表,单击“下一步”。 一次分配操作仅允许
INSERT INTO [database_name.]table [(c1, c2, c3)] VALUES (v11, v12, v13), (v21, v22, v23), ... 方法二:使用SELECT的结果写入。 INSERT INTO [database_name.]table
切换到客户端安装目录并配置环境变量: cd 客户端安装目录 source bigdata_env 如果集群已启用Kerberos认证(安全模式),需执行以下命令进行安全认证,如果集群未启用Kerberos认证(普通模式)请跳过该步骤。 kinit 组件业务用户 执行以下命令查看ENABL
进入客户端目录,配置环境变量。 cd /opt/客户端安装目录 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS集群用户 该用户必须具有Clickhouse管理员权限。
方式访问Hive,使用操作请参考从零开始使用Hive,应用开发请参考Hive应用开发。 元数据存储:Hive将元数据存储在数据库中,如MySQL、Derby。Hive中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。 Hive结构 Hi
INSERT INTO [database_name.]table [(c1, c2, c3)] VALUES (v11, v12, v13), (v21, v22, v23), ... 方法二:使用SELECT的结果写入。 INSERT INTO [database_name.]table
值 描述 qas.enable.auto.recommendation true 开启物化视图推荐,默认值为“false” qas.sql.submitter 如:default,zuhu1 启用物化视图推荐功能的租户名称,多租户用英文逗号隔开 qas.schedule.fixed
表2 属性描述 属性 描述 carbon.options.bad.records.logger.enable 启用或禁用bad record日志记录。 carbon.options.bad.records.action 指定bad record操作,例如,强制(force),重定
Spark2x的Ranger访问权限策略。 Spark2x开启或关闭Ranger鉴权后,需要重启Spark2x服务,并重新下载客户端,或刷新客户端配置文件spark/conf/spark-defaults.conf: 开启Ranger鉴权:spark.ranger.plugin.authorization
节点,执行以下命令: source 客户端安装目录/bigdata_env 根据集群认证模式,完成HetuEngine客户端登录。 集群已启用Kerberos认证(安全模式):执行以下命令,完成用户认证并登录HetuEngine客户端。 kinit HetuEngine组件操作用户
指定schema名称,未指定时默认使用当前的schema。 LIKE 'identifier_with_wildcards' identifier_with_wildcards只支持包含“*”和“|”的规则匹配表达式。 其中“*”可以匹配单个或多个字符,“|”适用于匹配多种规则匹配表达
hbase.wal.hsync 设置是否启用WAL文件耐久性以将WAL数据持久化到磁盘。若将该参数设置为true,则性能将受到影响,原因是每个WAL的编辑都会被hadoop fsync同步到磁盘上。 false hbase.hfile.hsync 设置是否启用Hfile耐久性以将数据持久化
的RegionServer实例,请分多次修改操作进行分配。 开启跨AZ特性时,分配操作需要保证分配结果能使每个AZ中均存在该RSGroup的RegionServer实例,而且无法对开启前已分配的RSGroup进行AZ约束校验。 勾选欲分配的表,单击“下一步”。 一次分配操作仅允许
r WebUI的Flink作业开发界面添加自定义参数“table.optimizer.multi-join-enabled”为“true”开启MultiJoin算子功能,可参考如何创建FlinkServer作业。 SQL示例: CREATE TABLE datagen1 ( id
TRANSACTION READ WRITE, ISOLATION LEVEL SERIALIZABLE; 不支持嵌套事务,也就是开启事务后,在commit之前不能再开启其他事务。 父主题: HetuEngine TCL SQL语法说明
参数解释: 可用区编码。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 az_name String 参数解释: 可用区名称。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 az_id String 参数解释: 可用区id。 约束限制: 不涉及 取值范围: