检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HBase配置了容灾并且容灾存在数据同步失败或者同步速度慢; HBase集群存在大量的WAL文件在进行split。 处理步骤 检查znode数量配置和使用量 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“19016”的告警,查看“附加信息”中的阈值。
HBase配置了容灾并且容灾存在数据同步失败或者同步速度慢; HBase集群存在大量的WAL文件在进行split。 处理步骤 检查znode容量配置和使用量 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“19017”的告警,查看“附加信息”中的阈值。
task。给算子链上的中间算子手动分配ID是不可能的。例如:在链(Chain)[a->b->c]中,只能给a手动分配ID,b和c不能分配。如果用户想给b和c分配ID,用户必须手动建链。手动建链时需要使用disableChaining()接口。举例如下: env.addSource(new
SparkSQLPythonExample.py <file>" exit(-1) # 初始化SparkSession和SQLContext sc = SparkSession.builder.appName("CollectFemaleInfo").getOrCreate()
从checkpoint恢复spark应用的限制 第三方jar包跨平台(x86、TaiShan)支持 在客户端安装节点的/tmp目录下残留了很多blockmgr-开头和spark-开头的目录 ARM环境python pipeline运行报139错误码 Structured Streaming 任务提交方式变更
SparkSQLPythonExample.py <file>" exit(-1) # 初始化SparkSession和SQLContext sc = SparkSession.builder.appName("CollectFemaleInfo").getOrCreate()
R级别。 原因分析 修改“$Flink_HOME/conf”目录下的“log4j.properties”文件,控制的是JobManager和TaskManager的算子内的日志输出,输出的日志会打印到对应的yarn contain中,可以在Yarn WebUI查看对应日志。 MRS
overwrite操作将会把此目录下的其他表文件也一起复写。 由于Spark SQL当前的实现机制,如果对此种场景添加检查限制,会存在一致性问题和性能问题,因此未对此种场景添加限制,但是用户应避免此种用法,以避免此场景带来的各种问题。 父主题: Spark2x常见问题
变得很大。 每个任务分片在执行中都需要同一份数据集合时,就可以把公共数据集Broadcast到每个节点,让每个节点在本地都保存一份。 大表和小表做join操作时可以把小表Broadcast到各个节点,从而就可以把join操作转变成普通的操作,减少了shuffle操作。 操作步骤
Permissions:Create和select 图3 新增hivedev的访问控制策略 单击“Add”,完成策略添加,依据如上Policy示例,testuser用户组中的testuser用户将对Hive的“test”数据库中的表“table1”的“name”列有Create和select的权限,而对于其他列则没有任何的访问权限。
(state=08S01,code=1) 原因分析 MapReduce任务提交前对输入文件数的检查策略:在提交的MapReduce任务中,允许的最大输入文件数和HiveServer最大堆内存的比值,例如500000/4(默认值),表示每4GB堆内存最大允许500000个输入文件。在输入的文件数超出此限制时则会发生此错误。
在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,查看“告警ID”为“19030”的告警的“定位信息”中上报该告警的服务实例和主机名,单击主机名并记录该主机的业务IP地址。 检查RegionServer的GC时间。 在FusionInsight Manager的告警
隔离MRS集群节点对系统的影响 主机隔离后该主机上的所有角色实例将被停止,且不能对主机及主机上的所有实例进行启动、停止和配置等操作。 主机隔离后无法统计并显示该主机硬件和主机上实例的监控状态及指标数据。 主机隔离后部分服务的实例不再工作,服务的配置状态可能过期。 待操作节点的SSH端
SHOW TABLES; spark-beeline 调用Spark的JDBCServer执行Spark SQL,可以实现对海量数据高效的计算和统计分析。JDBCServer包含一个长时运行的Spark任务,在spark-beeline中执行的语句都会交给该任务执行。 启动示例: cd
<PHOENIX_HBASE_VERSION> <MRS_VERSION> <IPs>”(IP为HBase安装节点的IP,即所有Master和Core节点的IP,并以当前集群实际IP为准)。例如脚本如下所示: #!/bin/bash PHOENIX_HBASE_VERSION=$1
-XX:NumberOfGCLogFiles=20 -XX:GCLogFileSize=20M”。 此处默认已经添加GC日志。 操作步骤 优化GC。 调整老年代和新生代的比值。在客户端的“conf/flink-conf.yaml”配置文件中,在“env.java.opts”配置项中添加参数:“-XX:NewRatio”。如“
gionServer/install/hbase/lib目录下面有两个Phoenix包(phoenix-4.14.1-server.jar和phoenix-core-4.14.1.jar)包含这个类。 使用scp命令将上述两个包拷贝到异常RegionServer节点上相同目录下,
Hive读写权限”,在待操作数据库所在行勾选“查询”、“删除”、“插入”、“建表”、“Select授权”、“Delete授权”、“Insert授权”和“递归”权限,单击“确定”。 单击“用户”,单击提交该任务的用户所在行的“修改”,在角色中新增1新建的角色,单击“确定”。 选择“集群 > 服务
在“服务”中勾选操作集群的“IoTDB”,单击“确定”。 在“主机”勾选1查看到的主机,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
Topology 一个Topology代表用户的一个执行任务。一个Topology由输入(如kafka soruce)、输出(如kafka sink)和多个Data Transformation组成。 CheckPoint CheckPoint是Flink数据处理高可靠、最重要的机制。该机制