检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
apache.hadoop.ipc.Server$Handler.run(Server.java:2254) )' 原因分析 根据堆栈信息,可以看出在检查子目录的权限时失败。 org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker
使用Hive Hive用户权限管理 Hive客户端使用实践 快速使用Hive进行数据分析 Hive数据存储及加密配置 Hive on HBase 配置Hive读取关系型数据库 配置Hive读取Hudi表 Hive企业级能力增强 Hive性能调优 Hive运维管理 Hive常见SQL语法说明
WebUI】使用IE浏览器访问Spark2x WebUI界面失败 用户问题 通过IE浏览器访问Spark的WebUI界面,偶尔出现访问失败情况。 问题现象 访问页面失败,浏览器无法显示此页,如下图所示: 原因分析 部分低版本IE浏览器处理SSL握手有问题导致访问失败。 处理步骤 重新刷新页面或者推荐使用Google
~+∞”分为五个Region。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的testMultiSplit方法中。 public void testMultiSplit() { LOG.info("Entering
HDFS上设置配额导致HBase启动失败 问题现象 HBase启动失败。 原因分析 查看HMaster日志信息(“/var/log/Bigdata/hbase/hm/hbase-omm-xxx.log”),出现如下异常,The DiskSpace quota of /hbase is
configuration. ....... 原因分析 经分析因为在写数据到Kafka时,Kafka客户端会先比较配置项“max.request.size ”值和本次写入数据大小,若写入数据大小超过此配置项“max.request.size ”的缺省值,则抛出上述异常。 解决办法 在初始
连接到HBase响应慢 问题现象 在相同的VPC下,外部集群通过Phoenix连接到HBase时,响应较慢。 原因分析 客户配置了DNS服务,由于客户端连接到HBase先通过DNS来解析服务器端,所以导致响应慢。 处理步骤 以root用户登录Master节点。 执行vi /etc/resolv
oint会很慢的问题? 问题 如何处理checkpoint设置RocksDBStateBackend方式,且当数据量大时,执行checkpoint会很慢的问题? 原因分析 由于窗口使用自定义窗口,这时窗口的状态使用ListState,且同一个key值下,value的值非常多,每次
There was an error with your query.”。 原因分析 IE浏览器存在功能问题,不支持在307重定向中处理含有form data的AJAX POST请求,建议更换兼容的浏览器。 解决办法 推荐使用Google Chrome浏览器21及以上版本。 父主题:
blocksize”,将其设置为268435456,上传数据,block大小还是原来的大小。 原因分析 HDFS客户端的“hdfs-site.xml”文件中的dfs.blocksize大小没有更改,以客户端配置为准。 解决办法 确保“dfs.blocksize”为512的倍数。 重新下载安装客户端或者更改客户端配置。
HBase version文件损坏导致启动失败 问题背景 HBase启动失败。 原因分析 HBase启动时会读取hbase.version文件,但是日志显示读取存在异常。 通过hadoop fs -cat /hbase/hbase.version命令发现文件不能正常查看,该文件损坏。
图1 DBServer实例状态 原因分析 数据目录下文件或目录的权限不对,GaussDB要求文件权限至少是600,目录权限至少为700。 图2 目录权限列表 图3 文件权限列表 解决办法 按照图2和图3的权限列表,修改相应文件和目录的权限。 重启相应的DBServer实例。 父主题:
transport.TTransportException: java.net.SocketException: Broken pipe 原因分析 从外部存储(例如HDFS)导入数据时,由于目录下文件过多,导致列出文件目录超时。 处理步骤 登录FusionInsight Manager,选择“集群
Decrypt integrity check failed 解决办法 确认集群外连接Kafka的节点IP地址信息(如原因分析示例中的192.168.1.93)。 登录集群外的节点,断开其对Kafka的认证。 等待5分钟,此账号就会被解锁。 重新尝试启动Kafka服务。 父主题: 使用Kafka
ata12/dfs”,看到的现象是大量数据都是存储到了“/export/data1/dfs”,其他盘的数据比较均衡。 原因分析 磁盘为卸载重装,有一个目录在上次卸载时未卸载干净,即添加的磁盘,未格式化,残留历史垃圾数据。 解决办法 手动清理未卸载干净的数据。 父主题: 使用HDFS
valid host:port authority的报错,如何处理? 问题现象 安全集群中,Alluixo在HA模式下出现Does not contain a valid host:port authority的报错。 原因分析 org.apache.hadoop.security
WebUI页面报错“重定向次数过多” 问题现象 通过Manager页面跳转HDFS WebUI页面偶现失败,报错“重定向次数过多”,此时其他组件的WebUI能正常访问。 原因分析 Knox为双活组件,运行过程中出现主备之间数据不同步问题导致。 处理步骤 任意通过其他组件页面跳转对应WebUI页面,等待跳转成功。
WebUI】使用IE浏览器访问HDFS WebUI界面失败 用户问题 通过IE浏览器访问HDFS的WebUI界面,偶尔出现访问失败情况。 问题现象 访问页面失败,浏览器无法显示此页,如下图所示: 原因分析 部分低版本IE浏览器处理SSL握手有问题导致访问失败。 处理步骤 重新刷新页面或者推荐使用Google
0版本集群中Spark消费kafka数据,过一天以后就会出现认证失败的报错: 原因分析 集群版本和运行的程序包版本不匹配。 处理步骤 参考运行Spark Streaming 对接Kafka0-10样例程序进行相关配置。 当前集群为MRS 2.1.0版本,请如需使用Maven库中的提供的样例程序,请获取spark-st
to queue root.QueueA 原因分析 当前登录的用户无YARN队列提交权限。 解决方案 用户无YARN队列提交权限,需要赋予YARN相应队列的提交权限。在Manager页面的“系统 >权限 > 用户”中给用户绑定队列提交权限的角色。 父主题: 使用Hive