检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
dbdata_om命令获取OMS数据库的数据目录。 执行df -h命令,查看系统磁盘分区的使用信息。 查看OMS数据库数据目录挂载磁盘是否已满。 是,执行14。 否,执行16。 进行磁盘扩容。 磁盘扩容后,等待2分钟检查告警是否清除。 是,操作结束。 否,执行16。 收集故障信息。
数据出现不均衡,某磁盘过满而其他磁盘未写满。 HDFS DataNode数据存储目录配置为“/export/data1/dfs--/export/data12/dfs”,看到的现象是大量数据都是存储到了“/export/data1/dfs”,其他盘的数据比较均衡。 原因分析 磁盘为卸载重装
er日志 配置Spark Eventlog日志回滚 配置WebUI上显示的Lost Executor信息的个数 配置JobHistory本地磁盘缓存 增强有限内存下的稳定性 配置YARN-Client和YARN-Cluster不同模式下的环境变量 Hive分区修剪的谓词下推增强
调整Spark日志级别 配置WebUI上查看Container日志 配置WebUI上显示的Lost Executor信息的个数 配置JobHistory本地磁盘缓存 配置Spark Eventlog日志回滚 增强有限内存下的稳定性 配置YARN-Client和YARN-Cluster不同模式下的环境变量
满足需求,可尝试切换其他可用区。 当Core节点规格选择为HDD磁盘时,MRS无需为数据磁盘付费,但ECS需要为此付费。 当Core节点规格选择非HDD磁盘时,Master节点和Core节点的磁盘类型取决于数据磁盘。 当节点的实例规格选项后标示“已售罄”时,将无法购买此规格的节点,请选择其他规格节点进行购买。
成Hive和CSS服务的Elasticsearch直接的数据交互,通过Hive外部表的方式,可以快速将Elasticsearch索引数据映射到Hive表中。 Elasticsearch-Hadoop (ES-Hadoop) 连接器将Hadoop海量的数据存储和深度加工能力与Ela
产生告警的主机名。 磁盘名 产生告警的磁盘名。 附加信息 主机名 产生告警的主机名。 磁盘名 产生告警的磁盘名。 详细信息 慢盘隔离描述信息。 对系统的影响 处于隔离状态的磁盘或者节点不能及时恢复,可能会对大数据组件运行产生影响,进而影响用户业务使用。 可能原因 磁盘或者节点隔离状态超过慢盘处理超时配置时间。
Spark的Shuffle过程需要写本地磁盘,Shuffle是Spark性能的瓶颈,I/O是Shuffle的瓶颈。配置多个磁盘则可以并行的把数据写入磁盘。如果节点中挂载多个磁盘,则在每个磁盘配置一个Spark的localDir,这将有效分散Shuffle文件的存放,提高磁盘I/O的效率。如果只有一个磁盘,配置了多个目录,性能提升效果不明显。
Spark的Shuffle过程需要写本地磁盘,Shuffle是Spark性能的瓶颈,I/O是Shuffle的瓶颈。配置多个磁盘则可以并行的把数据写入磁盘。如果节点中挂载多个磁盘,则在每个磁盘配置一个Spark的localDir,这将有效分散Shuffle文件的存放,提高磁盘I/O的效率。如果只有一个磁盘,配置了多个目录,性能提升效果不明显。
平滑次数为1,当某个Topic在过载磁盘上的Partition数占比低于阈值(默认40%)时,告警恢复。 过载磁盘定义:磁盘分区的IO使用率大于80%的磁盘认为是过载磁盘。 例如: 某TopicA的Partition分布在三个Broker上,其中两个Broker上Partition所在磁盘分区的IO使用率大于80%。
log的解析并返回,httpd会主动向浏览器返回Proxy Error信息。 解决方法 由于当前JobHistory开启了本地磁盘缓存功能,访问应用时,会将应用的Event log的解析结果缓存到本地磁盘中,第二次访问时,能大大加快响应速度。因此,出现此种情况时,仅需稍作等待,重新访问原来的链接即可,此时不会再出现需要长时间等待的现象。
Spark的Shuffle过程需要写本地磁盘,Shuffle是Spark性能的瓶颈,I/O是Shuffle的瓶颈。配置多个磁盘则可以并行的把数据写入磁盘。如果节点中挂载多个磁盘,则在每个磁盘配置一个Spark的localDir,这将有效分散Shuffle文件的存放,提高磁盘I/O的效率。如果只有一个磁盘,配置了多个目录,性能提升效果不明显。
800GB SSD RAID 1 + 10 * 800GB SSD 2 x 2 * 10GE 表2 本地存储型(D2型)裸金属服务器的规格 规格名称/ID CPU 内存(GB) 本地磁盘 扩展配置 physical.d2.large 2 * 12 Core Intel Xeon Gold
log的解析并返回,httpd会主动向浏览器返回Proxy Error信息。 解决方法 由于当前JobHistory开启了本地磁盘缓存功能,访问应用时,会将应用的Event log的解析结果缓存到本地磁盘中,第二次访问时,能加快响应速度。因此,出现此种情况时,仅需稍作等待,重新访问原来的链接即可,此时不会再出现需要长时间等待的现象。
log的解析并返回,httpd会主动向浏览器返回Proxy Error信息。 解决方法 由于当前JobHistory开启了本地磁盘缓存功能,访问应用时,会将应用的Event log的解析结果缓存到本地磁盘中,第二次访问时,能大大加快响应速度。因此,出现此种情况时,仅需稍作等待,重新访问原来的链接即可,此时不会再出现需要长时间等待的现象。
ClickHouse节点进入只读模式 告警解释 系统每隔1分钟检测ClickHouseServer节点磁盘容量,当检测到磁盘容量超过90%,ClickHouseServer节点进入只读模式时,系统产生此告警。 当检测到磁盘容量低于90%,ClickHouseServer节点退出只读模式时,告警自动清除。
节点内磁盘间的分区数据迁移。也可以通过KafkaUI进行分区迁移。 前提条件 MRS集群管理员已明确业务需求,并准备一个Kafka用户(属于kafkaadmin组,普通模式不需要)。 已安装Kafka客户端。 Kafka实例状态和磁盘状态均正常。 根据待迁移分区当前的磁盘空间占用
节点内磁盘间的分区数据迁移。也可以通过KafkaUI进行分区迁移。 前提条件 MRS集群管理员已明确业务需求,并准备一个Kafka用户(属于kafkaadmin组,普通模式不需要)。 已安装Kafka客户端。 Kafka实例状态和磁盘状态均正常。 根据待迁移分区当前的磁盘空间占用
为什么给HDFS上的HBase使用的目录设置quota会造成HBase故障? 回答 表的flush操作是在HDFS中写memstore数据。 如果HDFS目录没有足够的磁盘空间quota,flush操作会失败,这样region server将会终止。 Caused by: org.apache.hadoop.hdfs
为什么给HDFS上的HBase使用的目录设置quota会造成HBase故障? 回答 表的flush操作是在HDFS中写MemStore数据。 如果HDFS目录没有足够的磁盘空间quota,flush操作会失败,这样region server将会终止。 Caused by: org.apache.hadoop.hdfs