检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
主机隔离后该主机上的所有角色实例将被停止,且不能对主机及主机上的所有实例进行启动、停止和配置等操作。 主机隔离后无法统计并显示该主机硬件和主机上实例的监控状态及指标数据。 主机隔离后部分服务的实例不再工作,服务的配置状态可能过期。 待操作节点的SSH端口需保持默认(22),否则将导致本章节任务操作失败。
将其修改日志保存到大多数的JournalNode节点中,例如有3个JournalNode,则日志会保存在至少2个节点中。Standby节点监控JournalNodes的变化,并同步来自Active节点的修改。根据修改日志,Standby节点将变动应用到本地文件系统元数据中。一旦发
Kafka 直接重启 直接重启业务会中断 直接重启耗时约5分钟。 滚动重启 需要提前查看Broker各实例数据同步正常,可以参考Kafka的监控指标“未完全同步的Partition总数”进行查看。 Kafka滚动重启过程中,建议设置客户端Producer的配置参数“acks”的值为
MRS大数据组件 hive on tez插入数据失败问题 MRS 2.1.0.2 修复问题列表: MRS Manager nodeagent重启后不显示监控信息 长时间提交作业,manager executor进程会内存溢出 支持提交作业,manager executor可配置并发度功能 MRS
floatip_ha.log Floatip资源脚本日志 gaussDB_ha.log gaussDB资源脚本日志 ha_monitor.log HA进程监控日志 send_alarm.log 告警发送日志 ha.log HA运行日志 DBService审计日志 dbservice_audit.log
floatip_ha.log Floatip资源脚本日志 gaussDB_ha.log gaussDB资源脚本日志 ha_monitor.log HA进程监控日志 send_alarm.log 告警发送日志 ha.log HA运行日志 DBService审计日志 dbservice_audit.log
可能存在以下场景,在ZooKeeper中创建的数据过大,需要大量时间与leader同步,并保存到硬盘。在这个过程中,如果ZooKeeper需要运行很长时间,则需确保没有其他监控应用程序kill ZooKeeper而判断其服务停止。 父主题: ZooKeeper常见问题
标签(tag):城市city、区域region 标签值(tag value):ShenZhen、Longgang 用户可以执行以下数据操作: 获取每天的监控数据,通过OpenTSDB的put接口将两个组数据点写入数据库中。 对已有的数据使用OpenTSDB的query接口进行数据查询和分析。 功能分解
blacklist”中。 等待10分钟,查看故障磁盘使用率是否有减少。 是,继续等待直到告警消除。 否,执行12。 进入“Kafka Topic监控”页面,查看Kafka配置的数据保存时间配置,根据业务需求和业务量权衡,考虑是否需要调小数据保存时间。 是,执行13。 否,执行14。 根
检查数据连接数是否使用过多 在FusionInsight Manager主页,单击左侧服务列表的DBService服务,进入DBService监控页面。 观察数据库用户已使用的连接数图表,如图1所示,用户根据业务场景评估,适当降低数据库用户连接数的使用。 图1 数据库用户已使用的连接数图表
/user/hive/warehouse/person -hive-table person -split-by<column-name> 表的列名,用来切分工作单元,一般后面跟主键ID。 -table <table-name> 关系数据库表名,数据从该表中获取。 -target-dir <dir> 指定HDFS路径。
可能存在以下场景,在ZooKeeper中创建的数据过大,需要大量时间与leader同步,并保存到硬盘。在这个过程中,如果ZooKeeper需要运行很长时间,则需确保没有其他监控应用程序kill ZooKeeper而判断其服务停止。 父主题: ZooKeeper常见问题
/user/hive/warehouse/person -hive-table person -split-by<column-name> 表的列名,用来切分工作单元,一般后面跟主键ID。 -table <table-name> 关系数据库表名,数据从该表中获取。 -target-dir <dir> 指定hdfs路径。
Kafka 直接重启 直接重启业务会中断 直接重启耗时约5分钟。 滚动重启 需要提前查看Broker各实例数据同步正常,可以参考Kafka的监控指标“未完全同步的Partition总数”进行查看。 Kafka滚动重启过程中,建议设置客户端Producer的配置参数“acks”的值为
ResourceManager,另一个为Standby ResourceManager。Standby ResourceManager定时去ZooKeeper监控Active ResourceManager选举信息。 Active ResourceManager还会在ZooKeeper中创建Stat
r导出审计日志。当系统中的审计日志过多时,可通过配置转储参数,将审计日志转储到指定服务器,避免引起集群节点磁盘空间不足。 维护责任人 网络监控工程师、系统维护工程师。 Manager例行维护 为了保证系统长期正常、稳定的运行,管理员或维护工程师需要定期对下表所示的项目进行检查,并
ME_LOG_DIR属性,可查看客户端日志路径。 “-e”(可选):FlumeServer的业务IP地址或主机名,主要用于接收客户端上报的监控指标信息。 “-n”(可选):Flume客户端的名称,可以通过在FusionInsight Manager上选择“集群 > 待操作集群名称
待操作集群的名称 > 服务 > HDFS”,单击图表区域右上角的下拉菜单,选择“定制 > 文件和块”,勾选“HDFS文件”和“HDFS块数”监控项查看。 在“集群 > 待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置”中查找“NameNode”下的GC_OPTS参数。
/user/hive/warehouse/person -hive-table person -split-by<column-name> 表的列名,用来切分工作单元,一般后面跟主键ID。 -table <table-name> 关系数据库表名,数据从该表中获取。 -target-dir <dir> 指定HDFS路径。
“-l”:可选参数,表示日志目录,默认值为“/var/log/Bigdata”。 “-e”:可选参数,表示Flume实例的业务IP地址,主要用于接收客户端上报的监控指标信息。 “-n”:可选参数,表示自定义的Flume客户端的名称。 IBM的JDK不支持“-Xloggc”,需要修改“flume/conf/flume-env