检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
$BIGDATA_LOG_HOME/omm/oms/cep/scriptlog/cep_ha.log,查看ha的cep资源日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待五分钟,查看告警是否恢复。 是,操作结束。 否,执行6。 收集故障信息。 在FusionInsight Manager界面,选择“运维
$BIGDATA_LOG_HOME/omm/oms/fms/scriptlog/fms_ha.log 查看ha的fms资源日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待五分钟,查看告警是否恢复。 是,操作结束。 否,执行6。 收集故障信息。 在FusionInsight Manager界面,选择“运维
${BIGDATA_LOG_HOME}/disaster/disaster.log,查看ha的disaster资源日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待5分钟,查看告警是否恢复。 是,操作结束。 否,执行7。 收集故障信息。 在FusionInsight Manager界面,选择“运维
serializers.collectionSerializer.read(CollectionSerializer.java:112) 原因分析 java.lang.StackOverflowError这是内存溢出错误的一种,即线程栈的溢出,方法调用层次过多(比如存在无限递归调用)或线程栈太小都会导致此报错。
$BIGDATA_LOG_HOME/omm/oms/ha/scriptlog/acs.log,查看ha的ACS资源日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待五分钟,查看告警是否恢复。 是,操作结束。 否,执行6。 收集故障信息。 在FusionInsight
$BIGDATA_LOG_HOME/controller/controller.log,查看controller运行日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待五分钟,查看告警是否恢复。 是,操作结束。 否,执行6。 收集故障信息。 在FusionInsight Manager界面,选择“运维
$BIGDATA_LOG_HOME/omm/oms/pms/scriptlog/pms_ha.log,查看ha的pms资源日志,是否有关键字“ERROR”,分析日志查看资源异常原因并修复。 等待五分钟,查看告警是否恢复。 是,操作结束。 否,执行6。 收集故障信息。 在FusionInsight Manager界面,选择“运维
etObjectMetadata||||2022-02-28 17:12:45|2022-02-28 17:12:45|||400| 原因分析 使用rm命令从HDFS中删除某些内容时,文件或目录不会立即被清除,它们将被移动到回收站Current目录(/user/${username}/
细介绍请参见欠费说明。 停止计费 MRS集群删除或退订后不再产生费用。详细介绍请参见停止计费。 成本管理 您可以从成本构成、成本分配、成本分析和成本优化四个维度来管理成本。更多详情,请参见成本管理。
1、报错类找不到:java.lang.NoClassDefFoundError 2、报错方法找不到:java.lang.NoSuchMethodError 原因分析 以自定义UDF为例: 报错信息显示是找不到类。 首先需要确认的是这个类属于的jar包是否在jvm的classpath里面, spark自
1、报错类找不到:java.lang.NoClassDefFoundError 2、报错方法找不到:java.lang.NoSuchMethodError 原因分析 以自定义UDF为例: 报错信息显示是找不到类。 首先需要确认的是这个类属于的jar包是否在jvm的classpath里面, spark自
0版本集群,当用户名超过20位时(添加用户时最长限制为32位),下载Keytab文件会下载失败,状态代码:400 Bad Request。 原因分析 需要在主Master节点的“/opt/Bigdata/om-server_*/apache-tomcat-*/webapps/web/W
可能原因 Kafka服务异常。 Flume连接Kafka地址错误,导致发送失败。 Flume发送超过Kafka大小限制的消息,导致发送失败。 原因分析 Flume发送数据到Kafka失败,可能原因是Flume侧问题或者Kafka侧问题。 Manager界面查看当前Kafka状态及监控指标。
系统可能无法正常写入数据,导致部分数据丢失。 可能原因 Hive使用HDFS容量上限过小。 系统磁盘空间不足。 部分数据节点瘫痪。 处理步骤 扩展系统配置。 分析集群HDFS使用情况,增加HDFS分配给Hive使用的容量上限。 登录MRS集群详情页面,单击“组件管理 > Hive > 服务配置”,将
1100元。 数据规划 在开始开发应用前,需要创建Hive表,命名为person,并插入数据。同时,创建HBase table2表,用于将分析后的数据写入。 将原日志文件放置到HDFS系统中。 在本地新建一个空白的log1.txt文件,并在文件内写入如下内容。 1,100 在HD
1、报错类找不到:java.lang.NoClassDefFoundError 2、报错方法找不到:java.lang.NoSuchMethodError 原因分析 以自定义UDF为例: 报错信息显示是找不到类。 首先需要确认的是这个类属于的jar包是否在jvm的classpath里面, spark自
1、报错类找不到:java.lang.NoClassDefFoundError 2、报错方法找不到:java.lang.NoSuchMethodError 原因分析 以自定义UDF为例: 报错信息显示是找不到类。 首先需要确认的是这个类属于的jar包是否在jvm的classpath里面, spark自
blacklist. Blacklisting behavior can be configured via spark.blacklist.*. 原因分析 内存不足或提交作业时未添加Jar包,导致Spark提交的作业任务长时间处于pending状态。 处理步骤 检查提交作业时是否添加Jar包。
客户购买的MRS Kafka流式集群节点内有多块磁盘,由于分区不合理及业务原因导致某几个磁盘的使用量很高。当达到100%时就会造成kafka不可用。 原因分析 需要提前干预处理磁盘数据,全局的log.retention.hours修改需要重启服务。为了不断服,可以将数据量大的单个topic老化时间根据需要改短。
在Hive表的元数据信息界面,单击右上角的可导入数据,单击可浏览数据,单击可查看表文件的位置信息。 Hue界面主要用于文件、表等数据的查看与分析,禁止通过Hue界面对操作对象进行删除等高危管理操作。如需操作,建议在确认对业务没有影响后通过各组件的相应操作方法进行处理,例如使用HDF