检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果是安全模式集群,您可以联系管理员获取相应账号对应权限的keytab文件和krb5文件。 krb5.conf Kerberos server配置信息。 不同集群的“user.keytab”、“krb5.conf”不能共用。 “conf”目录下的“log4j.properties”文件可根据自己的需要进行配置。
从FTP服务器导入数据到Hive表 从同一集群内HDFS/OBS导入数据到HBase MRS与外部数据源交换数据和文件时需要连接数据源。系统提供以下连接器,用于配置不同类型数据源的连接参数: generic-jdbc-connector:关系型数据库连接器。 ftp-connector:FTP数据源连接器。
使用Loader导出数据 操作场景 该任务指导用户完成将数据从MRS导出到外部的数据源的工作。 一般情况下,用户可以手工在Loader界面管理数据导入导出作业。当用户需要通过shell脚本来更新与运行Loader作业时,必须对已安装的Loader客户端进行配置。 前提条件 创建或
不支持删除分区列或者分桶列。 DROP COLUMN不支持rctext、rcbinary、rcfile格式存储的表。由于connector对不同文件格式的列访问模式不同,drop column后可能会出现查询失败的情况,例如: 对于orc格式存储的非分区表 ,drop column后如果查询失败,需要设置Session属性:
要在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 操作步骤 按安装客户端时编译并运行HBase应用中的方式修改样例。 执行mvn package生成jar包,在工程目录target目录下获取,比如:hbase-examples-2.0.jar。
conf”,用于Kerberos安全认证文件为keytab文件和krb5.conf文件。具体使用方法在样例代码的“README.md”中会有详细说明。 安全认证主要采用代码认证方式。支持Oracle JAVA平台和IBM JAVA平台。 以下代码在“com.huawei.bigdata.hbase.examples”包的“TestMain”类中。
0万之间的数据丢失。 针对上述背景,提供配置Streaming对接Kafka更高级别的可靠性。对接Kafka可靠性功能开启后,上述场景处理方式如下。 如果Spark Streaming应用在运行应用时Kafka上topic的offset变小,则会将Kafka上topic最新的of
isAsync:是否使用异步生产,默认值“false”。 consumer.alive.time:消费线程存活时间,默认值“180000”,单位ms。 server.port:访问SpringBoot服务端的端口,默认值为“8080”,支持自定义修改。 server.address: SpringBoot服务端启动时绑定的IP地址,默认值为“0
“Tokentest”。 指定服务使用的SASL认证机制。 查找配置项“sasl.enabled.mechanisms”,配置为“GSSAPI,SCRAM-SHA-256,SCRAM-SHA-512”(使用英文逗号将这三项分隔)。 使用Scram登录组件。 查找自定义配置项“kafka
恢复任务失败后数据状态未知 ALM-12037 NTP服务器异常 ALM-12038 监控指标转储失败 ALM-12039 OMS数据库主备不同步 ALM-12040 系统熵值不足 ALM-12041 关键文件权限异常 ALM-12042 关键文件配置异常 ALM-12045 网络读包丢包率超过阈值
warehouse.dir}/a 进行广播操作,对表有要求: 至少有一个表不是空表; 表不能是“external table”; 表的储存方式需为textfile(默认是textfile文件格式),如 create table A( name string ) stored as
ZooKeeper与HBase的关系如图3所示。 图3 ZooKeeper和HBase的关系 RegionServer以Ephemeral node的方式注册到ZooKeeper中。其中ZooKeeper存储HBase的如下信息:HBase元数据、HMaster地址。 HMaster通过Zo
Metastore之上,具有Hive的DDL能力。从另外一种意义上说,HCatalog还是Hadoop的表和存储管理层,它使用户能够通过使用不同的数据处理工具(比如MapReduce),更轻松地在网格上读写HDFS上的数据,HCatalog还能为这些数据处理工具提供读写接口,并使用
pServer上同步数据,此时,使用id命令可能会获取不到Ldap中的数据,影响上层业务。 可能原因 nscd服务未启动。 网络故障,无法访问Ldap服务器。 Name Service服务异常。 OS执行命令慢导致无法查询用户。 处理步骤 检查nscd服务是否启动。 在FusionInsight
权限章节。 集群启用了Ranger鉴权,需参考添加Hive的Ranger访问权限策略章节授予用户对应表的Import/Export操作权限。 还需在源端集群和目标集群启用集群间复制功能。 需配置源端集群访问目标集群HDFS服务地址参数。 登录源端集群的FusionInsight Manager,选择“集群
的内存,避免内存溢出。 数据压缩算法的选择,建议使用默认的lz4压缩算法。 ClickHouse提供了两种数据压缩方式供选择:LZ4和ZSTD。 默认的LZ4压缩方式,会提供更快的执行效率,但是同时,要付出较多的磁盘容量占用的代价。 ReplacingMergeTree表引擎数据查询,需要先做数据去重合并提升性能。
使用Eclipse远程提交拓扑后Worker日志为空,则使用Storm客户端,提交拓扑对应的Jar包,查看提示信息。 例如,Jar包中包含两个不同路径下的“storm.yaml”文件,系统显示以下信息: Exception in thread "main" java.lang.Exc
在“任务名称”填写恢复任务的名称。 选择恢复源。 在“恢复配置”,勾选待恢复数据的元数据组件。 设置恢复参数。 在“路径类型”,选择一个备份目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示备份文件保存在主管理节点的本地磁盘上。选择此参数值,还需要配置“源端路径”,表示备
n指定路径到库后,删除表后导致库数据丢失。 Hive并发overwrite写入后,执行overwrite的任务支持拦截。 Hive并发插入不同分区数据,存在分区数据丢失问题。 Hive监控告警增强,新增MetaStore只操作DB接口的耗时、HiveServer建立连接/关闭连接耗时
为它有较好的Encoding/Decoding速度和可以接受的压缩率。 NONE BLOCKSIZE 配置HFile中block块的大小,不同的block块大小,可以影响HBase读写数据的效率。越大的block块,配合压缩算法,压缩的效率就越好;但是由于HBase的读取数据是以