检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的主机名。 对系统的影响 热点Region被限流,会限制处理该Region的handler数,请求该Region的业务可能变慢或者失败重试。 可能原因 业务访问HBase服务时单Region请求过高。 处理步骤 检查HBase是否存在单Region请求过高。 登录FusionInsight
对系统的影响 FGC时间超出阈值,会影响到数据的读写。 可能原因 该节点实例内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 用户可通过“运维> 告警 > 阈值设置 > Impala> 进程FGCT >Impalad进程FGCT( Impalad)”查看阈值大小(默认值12s)。
usionInsight Manager系统的监控指标。 可能原因 无法连接服务器。 无法访问服务器上保存路径。 上传监控指标文件失败。 处理步骤 查看服务器连接是否正常。 查看FusionInsight Manager系统与服务器网络连接是否正常。 是,执行3。 否,执行2。
Manager平台,无法进行正常运维操作。 controller进程持续重启,可能引起无法访问服务原生UI界面。 可能原因 controller进程异常。 处理步骤 检查controller进程是否异常。 打开FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看该告警的主机名称。
Manager平台,无法进行正常运维操作。 floatip进程持续重启,可能引起无法访问服务原生UI界面。 可能原因 浮动IP地址异常。 处理步骤 检查主管理节点的浮动IP地址状态。 打开FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看该告警的主机地址及资源名称。
对系统的影响 出现该告警说明某些进程发生了crash。如果是关键进程发生crash,可能会导致集群短暂的不可用。 可能原因 相关进程发生crash。 处理步骤 以下解析查看core文件堆栈信息的操作有可能会涉及到用户的敏感数据,开发或运维人员必须在获得用户授权的情况下才能进行操作。 告警所产
业务延迟:主机平均负载过高时,可能会导致业务进程运行处理缓慢、业务延迟。 业务失败:主机平均负载过高时,可能会导致业务处理缓慢、超时、失败,可能会导致作业运行失败。 可能原因 主机配置无法满足业务需求,平均负载达到上限。或业务处于高峰期,导致短期内平均负载达到上限。 处理步骤 检查主机CPU负载使用情况。
是,执行2。 否,执行4。 参考ALM-12014 设备分区丢失或ALM-12033 慢盘故障告警进行处理,查看对应告警是否清除。 是,执行3。 否,执行4。 等待5分钟,检查该告警是否恢复。 是,处理完毕。 否,执行4。 修改磁盘权限 在“运维 > 告警 > 告警”页面,查看该告警的“定位
状态和Z状态。或进程可能被挂起进入T状态。 处理步骤 查看进程是否处于D、Z、T状态 登录FusionInsight Manager页面,选择“运维 > 告警 > 告警”,等待约10分钟后,在告警列表中查看该告警是否自动清除。 是,处理完毕。 否,查看该告警详细信息,记录上报告警的主机IP地址。执行2。
HBase服务不可用”告警产生。 是,执行12。 否,执行14。 参考ALM-19000 HBase服务不可用的处理步骤处理该故障。 等待几分钟后检查本告警是否恢复。 是,处理完毕。 否,执行14。 检查主备集群RegionServer之间的网络连接。 登录主集群FusionInsight
当ClickHouse与Zookeeper断连,将无法正常使用ClickHouse服务。 可能原因 ZooKeeper状态异常。 ClickHouse业务压力过大。 处理步骤 检查ZooKeeper状态是否异常 在FusionInsight Manager首页,选择“集群 > 服务 > ZooKeeper >
中的关系表,可被SQLContext中的方法创建。 pyspark.sql.DataFrameNaFunctions:DataFrame中处理数据缺失的函数。 pyspark.sql.DataFrameStatFunctions:DataFrame中统计功能的函数,可以计算列之间的方差,样本协方差等。
JDBCServer接口介绍 简介 JDBCServer是Hive中的HiveServer2的另外一个实现,它底层使用了Spark SQL来处理SQL语句,从而比Hive拥有更高的性能。 JDBCServer是一个JDBC接口,用户可以通过JDBC连接JDBCServer来访问Sp
中的关系表,可被SQLContext中的方法创建。 pyspark.sql.DataFrameNaFunctions:DataFrame中处理数据缺失的函数。 pyspark.sql.DataFrameStatFunctions:DataFrame中统计功能的函数,可以计算列之间的方差,样本协方差等。
中的关系表,可被SQLContext中的方法创建。 pyspark.sql.DataFrameNaFunctions:DataFrame中处理数据缺失的函数。 pyspark.sql.DataFrameStatFunctions:DataFrame中统计功能的函数,可以计算列之间的方差,样本协方差等。
er计算出恰好要转移这个Region,那么,这个Region将无法被关闭,本次转移操作将无法完成(关于这个问题,在当前的HBase版本中的处理的确还欠缺妥当)。 因此,暂时不建议使用该方法关闭一个Region。 采用PutList模式写数据 Table类中提供了两种写数据的接口:
如何获取MRS集群ZooKeeper的IP地址和端口? ZooKeeper的IP地址和端口可以通过MRS控制台或登录Manager界面获取。 方法一:通过MRS控制台获取 在MRS集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步。 选择“组件管理 >
如何查看MRS服务的操作日志信息? “操作日志”页面记录了用户对集群和作业的操作的日志信息。目前,MRS界面记录的日志信息分为以下几类: 集群操作 创建集群、删除集群、扩容集群和缩容集群等操作 创建目录、删除目录和删除文件等操作 作业操作:创建作业、停止作业和删除作业等操作 数据
如何在MRS集群中手动添加组件? 问:如何在已创建好的MRS集群中手动添加服务? 答: 已经创建的MRS 3.1.0及之前版本集群不支持安装新的组件。如果需要使用当前集群未安装的组件,则需要重新创建一个集群,并且选择所需要的组件。 MRS 3.1.2-LTS.3及之后版本的自定义
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]