检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
【Hue WebUI】登录Hue WebUI报错无权限 现象描述 开启Kerberos认证的集群,使用admin用户登录Hue WebUI,报错“无权限或无法连接到hive server,请检查当前用户的hive权限以及hue的hive配置是否正确。”或“No available
ALM-45594 IoTDBServer空间内合并执行时长超过阈值 告警解释 当检测到空间内合并时长超出阈值时产生该告警。当空间内合并时长低于阈值时,告警清除。 告警属性 告警ID 告警级别 是否自动清除 45594 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。
use客户端使用实践。 执行如下命令查看正在执行的SQL任务,查看当前的并发数: select count(*) from system.processes; 确认获得值大于等于100。 执行如下命令结束正在执行的查询类大SQL: kill query where query_kind='Select'
使用Spark执行Hudi样例程序 使用Spark执行Hudi样例程序开发思路 使用Spark执行Hudi样例程序(Java) 使用Spark执行Hudi样例程序(Scala) 使用Spark执行Hudi样例程序(Python) 父主题: 开发Spark应用
使用Spark执行Hudi样例程序 使用Spark执行Hudi样例程序开发思路 使用Spark执行Hudi样例程序(Scala) 使用Spark执行Hudi样例程序(Python) 使用Spark执行Hudi样例程序(Java) 父主题: 开发Spark应用
执行Kakfa Topic创建操作时发现无法创建提示“replication factor larger than available brokers” 问题背景与现象 在使用Kafka客户端命令创建Topic时,发现Topic无法被创建。 kafka-topics.sh --create
执行MRS集群节点健康检查 如果某个主机节点的运行状态不是良好,用户可以执行主机健康检查,快速确认某些基本功能是否存在异常。在日常运维中,管理员也可以执行主机健康检查,以保证主机上各角色实例的配置参数以及监控没有异常、能够长时间稳定运行。 执行集群节点健康检查(3.x及之后版本)
步骤2-3仅启用Kerberos认证的集群执行,普通集群请直接从步骤4开始执行。 根据业务情况,准备好客户端,并登录安装客户端的节点。 例如在Master2节点更新客户端,则登录该节点使用客户端,具体参见使用MRS客户端。 执行以下命令切换用户。 sudo su - omm 执行以下命令,切换到客户端目录,例如“/opt/client”。
使用Sqoop Sqoop如何连接MySQL Sqoop读取MySQL数据到HBase时报HBaseAdmin.<init>方法找不到异常 通过Hue创建Sqoop任务将数据从HBase导入HDFS时报错 通过Sqoop从Hive导出数据到MySQL 8.0时报数据格式错误 通过sqoop
3.1.1版本Log4j2远程执行漏洞(CVE-2021-44228)缓解措施 MRS 3.1.0:MRS 3.1.0版本Log4j2远程执行漏洞(CVE-2021-44228)缓解措施 MRS 3.0.5:MRS 3.0.5版本Log4j2远程执行漏洞(CVE-2021-44228)缓解措施
install构建HBase Jar包失败报错Could not transfer artifact如何处理 问题 样例代码在进行maven编译构建jar包时,Build Failed,提示错误信息:Could not transfer artifact org.apache.c
执行Spark任务报内存不足告警如何处理? 问题现象 执行Spark任务就会报内存不足告警,告警id:18022,可用内存会陡降到0。 处理步骤 在SQL脚本前设置executor参数,限制executor的核数和内存。 例如设置如下: set hive.execution.engine=spark;
Flink Jar包冲突报错ClassCastException类型转换异常 问题现象 Flink lib中引入第三方依赖包后,启动作业报错: ClassCastException: X Cannot be cast to X 问题原因 引入的第三方依赖包与Flink中的依赖包有
Hive同步数据报错HoodieHiveSyncException 问题 Hive同步数据时报错: com.uber.hoodie.hive.HoodieHiveSyncException: Could not convert field Type from <type1> to
Hive同步数据报错HoodieHiveSyncException 问题 Hive同步数据时报错: com.uber.hoodie.hive.HoodieHiveSyncException: Could not convert field Type from <type1> to
driver.OracleDriver SQLServer:com.microsoft.sqlserver.jdbc.SQLServerDriver mysql:com.mysql.jdbc.Driver postgresql:org.postgresql.Driver gaussdb200:com
ALM-16005 上个周期Hive SQL执行失败超过阈值(2.x及以前版本) 告警解释 上个10min的周期内,Hive SQL执行失败数超过阈值。该告警每10min钟检测一次,如果上个10min周期内,发生Hive SQL执行失败数大于设定的阈值时候,会发生该告警。在下个10min周期,如果运行失败的Hive
志信息中的“UserName”查看执行错误语句的用户。 输入正确的HiveQL语句,观察命令是否正确执行。 是,执行4.e。 否,执行2.a。 检查HBase服务是否异常。 检查是否执行Hive on HBase任务。 是,执行2.b。 否,执行3.a。 在服务列表查看HBase服务是否正常。
对系统的影响 导致整个系统任务执行变慢阻塞。 可能原因 可能存在较大的任务阻塞了队列执行时长。 处理步骤 查看任务执行情况。 在FusionInsight Manager界面,选择“集群 > 服务 > Doris”,在左侧图表分类中单击“连接”,查看“FE的MySQL端口连接数”监控图表,如果连接数较大;选择“实例
首次启动后”查询相关的引导操作信息。 这里列出的是上次执行结果。对于新创建的集群,则列出的是创建时执行引导操作的记录;如果集群被扩容了,则列出的是上次扩容对新增节点执行引导操作的记录。 查看执行日志 如果需要查看引导操作的执行日志,请在添加引导操作时将“失败操作”配置为“继续”,