检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
cold 指定冷数据状态后端存储,当前仅支持“hbase”。 hbase table.exec.state.ttl 数据状态变化的超时时间。 table.exec.state.cold.enabled为true时:表示热数据的超期时间,超过该值热数据将成为冷数据。 table.exec
式,不填写时使用系统默认格式UTF-8。 UTF-8 配置多个FTP服务器,多个服务器指定目录的数据将导入到HBase。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表2 输入设置参数 参数名 说明 示例 输入路径 FTP服务器中源文件的输入路径,如果
使用Filter过滤器读取HBase表数据 功能简介 HBase Filter主要在Scan和Get过程中进行数据过滤,通过设置一些过滤条件来实现,如设置RowKey、列名或者列值的过滤条件。 代码样例 以下代码片段在com.huawei.bigdata.hbase.exampl
配置多个SFTP服务器时,Hive表将分成多份随机保存到各个SFTP服务器。 设置数据源信息 单击“下一步”,进入“输入设置”界面,在“源文件类型”中选择“HIVE”,设置数据源信息。 表2 数据源配置参数说明 参数名 解释说明 示例 Hive实例 在Hive作业中,Loader
式,不填写时使用系统默认格式UTF-8。 UTF-8 配置多个FTP服务器,多个服务器指定目录的数据将导入到HBase。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表2 输入设置参数 参数名 说明 示例 输入路径 FTP服务器中源文件的输入路径,如果
选择是否开启“使用外部数据源存储元数据”功能。 开启:使用外置的MySQL数据库存储Ranger组件的User/Group/Policy等数据。 关闭:Ranger组件的User/Group/Policy等数据默认存放在当前集群本地数据库中。 当“使用外部数据源存储元数据”开启时,选择数据连接类
ALM-50221 BE数据盘的使用率超过阈值 告警解释 系统每30秒周期性检查BE数据盘的使用率,当检查到该值超出阈值(默认值为95%)时产生该告警。 当系统检测到BE数据盘的使用率低于阈值时,告警清除。 告警属性 告警ID 告警级别 是否可自动清除 50221 紧急 是 告警参数
ClickHouse SQL调优 规则 合理使用数据表的分区字段和索引字段。 MergeTree引擎,数据是以分区目录的形式进行组织存储的,在进行的数据查询时,使用分区可以有效跳过无用的数据文件,减少数据的读取。 MergeTree引擎会根据索引字段进行数据排序,并且根据index_granu
MRS服务是租户完全可控的半托管云服务,为用户提供一站式企业级大数据平台,用户可以在MRS集群上轻松运行Hadoop、Hive、Spark、HBase、Kafka、Flink等大数据组件,帮助企业快速构建海量数据信息处理系统,并通过对海量信息数据实时与非实时的分析挖掘,发现全新价值点和企业商机。
配置Flume加密传输数据采集任务 配置Flume加密传输 使用多级agent串联从本地采集静态日志保存到HDFS 父主题: 使用Flume
Sftp公钥 Sftp服务器公钥。 OdDt/yn...etM 配置多个SFTP服务器,多个服务器指定目录的数据将导入到HBase。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表2 输入设置参数 参数名 说明 示例 输入路径 SFTP服务器中源文件的输入路径,如
Sftp公钥 Sftp服务器公钥。 OdDt/yn...etM 配置多个SFTP服务器,多个服务器指定目录的数据将导入到Hive。 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息。 表2 输入设置参数 参数名 说明 示例 输入路径 SFTP服务器中源文件的输入路径,如果
对系统的影响 如果将DataNode数据目录挂载在根目录等系统关键目录,长时间运行后会将根目录写满,导致系统故障。 不合理的DataNode数据目录配置,会造成HDFS的性能下降。 可能原因 DataNode数据目录创建失败。 DataNode数据目录与系统关键目录(“/”或“/boot”)使用同一磁盘。
关系,IoTDBServer保存region数据,直接使用操作系统自身的文件系统来管理元数据和数据文件。 容量规格 ConfigNode容量规格 当创建新的存储组时,IoTDB默认为该存储组分配10000个槽位,数据写入时根据写入的设备名和时间值,分配或创建一个data regi
配置Hive目录旧数据自动移除至回收站 开启Hive目录旧数据自动移除至回收站功能,执行写目录insert overwrite directory "/path1" ...命令成功之后,会将旧数据移除到回收站,并且同时限制该目录不能为Hive元数据库中已经存在的数据库路径。 操作步骤
索引保存的时间,默认为7天(单位:天),小于“0”表示永久保存 索引是判断数据重复的核心数据结构,对于长时间的更新,比如更新一个月前的数据,需要将该值调大 Flink On Hudi同步元数据到Hive 启动此特性后,Flink写数据至Hudi表将自动在Hive上创建出Hudi表并同步添加分区
权限,系统不会自动取消数据库目录的HDFS权限,但对应的用户只能登录数据库和查看表名。 若为角色添加或删除数据库的查询权限,数据库中的表也将自动添加或删除查询权限。此机制为Hive实现,SparkSQL与Hive保持一致。 Spark不支持struct数据类型中列名称含有特殊字符
配置Flume加密传输数据采集任务 使用多级agent串联从本地采集静态日志保存到HDFS 父主题: 使用Flume
Spark同步HBase数据到CarbonData样例程序开发思路 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步到CarbonData表中,用于分析型查询业务。 数据规划 创建HBase表,构造数据,列需要包含key,modify_time,valid
为什么drop数据库发生Missing Privileges异常? 问题 为什么drop数据库发生以下异常? Error: org.apache.spark.sql.AnalysisException: Missing Privileges;(State=,code=0) 回答 当数据库的所有者执行drop