检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ServiceName 产生告警的服务名称。 RoleName 产生告警的角色名称。 HostName 产生告警的主机名。 对系统的影响 资源组排队超过阈值可能导致大量任务处于排队状态,presto任务时间超过预期,当资源组排队数超过该组最大排队数(maxQueued)时,会导致新的任务无法执行。 可能原因
系统每30秒周期性检测每个HBase服务的RegionServer实例的RPC读队列待处理任务个数,当检测到某个RegionServer上的RPC读队列待处理任务个数连续10次超出阈值时产生该告警。 当RegionServer实例的RPC读队列待处理任务个数小于或等于阈值时,告警消除。
运行环境:Windows或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置,版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。
运行环境:Windows系统或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置,版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。
/tmp目录权限不对导致DBserver实例状态一直处于Restoring 问题背景与现象 DBServer实例状态一直是Restoring状态,重启之后仍然不恢复。 原因分析 查看“/var/log/Bigdata/dbservice/healthCheck/dbservice_processCheck
登录Manager界面,跳转Tez WebUI界面,已经提交的任务,Hive Queries界面未展示数据,如何解决。 回答 Tez WebUI展示的Hive Queries任务数据,需要设置以下3个参数: 在FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置
登录Manager界面,跳转Tez WebUI界面,已经提交的任务,Hive Queries界面未展示数据,如何解决。 回答 Tez WebUI展示的Hive Queries任务数据,需要设置以下3个参数: 在FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置
方AD服务器。 是,执行7。 否,执行8。 执行以下命令查看是否能连通第三方AD服务。 telnet IP port 其中IP为第三方AD服务器IP地址,port为第三方AD服务器使用端口。 是,执行8。 否,联系运维人员检查网络。 联系第三方AD服务管理人员,检查AD服务是否正常。
HBase服务不可用 告警解释 告警模块按120秒周期检测HBase服务状态。当HBase服务不可用时产生该告警。 HBase服务恢复时,告警清除。 告警属性 告警ID 告警级别 是否自动清除 19000 紧急 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。
整,不能实时响应当前正在运行SQL任务对可用资源的需求。 实例进行动态扩缩容后,HSConsole页面上实例配置处显示的Worker个数会保持初始设置的值,不随动态扩缩容个数变化而改变。 实例开启动态扩缩容后,重启HSBroker和Yarn服务会影响扩缩容功能,如需重启,建议先关闭实例的动态扩缩容功能。
响应示例 状态码: 200 修改集群名称成功 { "result" : "succeeded" } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 修改MRS集群名称为mrs_jdRU_dm01 1 2 3 4 5 6 7 8 9 10 11
Manager首页,选择“集群 > 服务 > DBService > 更多 > 重启服务”重启DBService服务,检查是否启动成功。 服务在重启过程中将不可用。另外,依赖该服务的上层服务也将受到影响。 是,执行8。 否,执行9。 等待约两分钟,查看告警列表中的DBService服务不可用告警是否恢复。 是,处理完毕。
运行环境:Windows或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置,版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。
Savepoint用于保存并还原自定义的版本数据。 Hudi提供的savepoint就可以将不同的commit保存起来以便清理程序不会将其删除,后续可以使用Rollback进行恢复。 使用spark-sql管理savepoint。 示例如下: 创建savepoint call create_savepoint('hudi_test1'
ALM-12188 diskmgt磁盘监控服务不可用 告警解释 NodeAgent每隔5分钟检测diskmgt磁盘监控服务状态,当diskmgt磁盘监控服务不可用时产生此告警。 diskmgt磁盘监控服务恢复时,告警清除。 告警属性 告警ID 告警级别 是否可自动清除 12188
--value true。 属性类别 子属性 含义 server -h,--host 服务IP地址 -p,--port 服务端口 -w,--webapp Tomcat应用名 -u,--url Sqoop服务URL option verbose 冗余模式,表示打印更多的信息 poll-timeout
等于阈值时,告警恢复;如果平滑次数大于1,NameNode的RPC队列平均时间小于或等于阈值的90%时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 14022 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。
容的节点: 任务管理中有添加节点的任务失败或部分成功: 若IAM用户已同步,可在组件管理观察到存在未启动角色。 若未同步,可在集群Manager页面观察到存在未启动角色。 处理步骤 场景一:添加节点任务在安装组件前失败 如果MRS集群为按需购买集群: 登录MRS服务控制台。 选择
示例工程。 安装Maven 开发环境基本配置,用于项目管理,贯穿软件开发生命周期。 安装JDK 开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。
/客户端安装目录 source ./bigdata_env source ./Spark2x/component_env kinit sparkuser 上传CSV中的文件到HDFS的“/data”目录: hdfs dfs -put /opt/test.csv /data/ 连接到CarbonData