检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
x/embedded-oozie-server/webapp/WEB-INF/lib”路径拷贝“curator-x-discovery-x.x.x.jar”包到“$BIGDATA_HOME/FusionInsight_Porter_x.x.x/install/FusionInsight-Oozie-x
务不可用,或节点故障时,用户希望不用频繁登录集群查看,就可以及时地收到告警通知。MRS联合消息通知服务(SMN),可以将以上信息主动地通知到用户的手机及邮箱,让维护更加省心省力。 客户价值 配置消息通知后,可以实时给用户发送MRS集群健康状态,用户可以通过手机短信或邮箱实时接收到
有以下特点: 对执行实时性要求不高,作业执行时间在数十分钟到小时级别。 数据量巨大。 数据来源和格式多种多样。 数据处理通常由多个任务构成,对资源需要进行详细规划。 例如在环保行业中,可以将天气数据存储在OBS,定期转储到HDFS中进行批量分析,在1小时内MRS可以完成10TB的天气数据分析。
ZooKeeper集群失去联系,session过期之后Master节点会消失。Standby节点通过监测事件(watch event)感知到节点消失,会去创建Master节点自己成为Active HMaster,主备倒换完成。如果后续停止服务的节点重新启动,发现Master节点已
nodemanager.resource.cpu-vcores”设置当前节点上NodeManager可使用的虚拟CPU核数,建议按节点实际逻辑核数的1.5到2倍配置。“yarn.nodemanager.resource.memory-mb”设置当前节点上NodeManager可使用的物理内存大小
[root @bdpsit3ap03 ~]# MRS集群中的用户管理由LDAP服务管理提供,又依赖于操作系统的sssd或nscd服务,用户的建立到同步到sssd服务需要一定时间,如果此时用户没有生效,或者sssd版本存在bug的情况下,某些情况下在ZooKeeper节点会出现用户无效的情况,导致创建Topic异常。
HBase占用网络端口,连接数过大会导致其他服务不稳定 有210000个map和10000个reduce的HBase BulkLoad任务运行失败 使用scan命令仍然可以查询到已修改和已删除的数据 如何处理由于Region处于FAILED_OPEN状态而造成的建表失败异常 如何清理由于建表失败残留在ZooKeeper中的table-lock节点下的表名
多副本场景下,运行在副本丢失损坏的BE节点的查询任务报错 现象描述 如果多个副本直接从磁盘上丢失了副本,比如mv改名,内核不会感知到该副本丢失,执行查询时如果请求运行在副本丢失的BE节点,报错: 处理步骤 登录安装了MySQL的节点,连接Doris数据库。 调用BE的check_
待删除的编号 例如,删除编号为1的规则,执行: iptables -D INPUT 1 以root用户通过备管理节点的IP地址登录备管理节点,并重复4到9。 配置集群LDAP信任的IP地址 登录FusionInsight Manager。 选择“集群 > 服务 > LdapServer > 实例”,查看LDAP服务对应的节点。
开发流程主要分为以下几部分: 建立连接:建立和Doris服务实例的连接。 创建库:创建Doris数据库。 创建表:创建Doris数据库下的表。 插入数据:插入数据到Doris表中。 查询数据:查询Doris表数据。 删除表:删除已创建的Doris表。 父主题: Doris JDBC接口调用样例程序
开发流程主要分为以下几部分: 建立连接:建立和Doris服务实例的连接。 创建库:创建Doris数据库。 创建表:创建Doris数据库下的表。 插入数据:插入数据到Doris表中。 查询数据:查询Doris表数据。 删除表:删除已创建的Doris表。 父主题: Doris JDBC接口调用样例程序
取值范围 spark.sql.sources.partitionOverwriteMode 当前执行insert overwrite命令插入数据到分区表时,支持两种模式:STATIC模式和DYNAMIC模式。 STATIC模式下,Spark会按照匹配条件删除所有分区。 DYNAMIC模
NodeManager中辅助服务对应的类。 添加依赖的jar包。 拷贝“${SPARK_HOME}/lib/spark-1.5.1-yarn-shuffle.jar”到“${HADOOP_HOME}/share/hadoop/yarn/lib/”目录下。 重启NodeManager进程,也就启动了External
> 全部配置”,搜索配置项“HIVE_METASTORE_URI”。 复制“HIVE_METASTORE_URI_DEFAULT”的默认配置到Spark2x的URI配置项,如果Spark2x仅需要连接两个MetaStore实例,则根据需要仅保留两个节点信息(具体以实际为准),单击“保存”。
如何在CarbonData中配置非安全内存? 问题 如何在CarbonData中配置非安全内存? 回答 在Spark配置中,“spark.yarn.executor.memoryOverhead”参数的值应大于CarbonData配置参数“sort.inmemory.size.inmb”与“Netty
如何在CarbonData中配置非安全内存? 问题 如何在CarbonData中配置非安全内存? 回答 在Spark配置中,“spark.yarn.executor.memoryOverhead”参数的值应大于CarbonData配置参数“sort.inmemory.size.inmb”
如果存在多磁盘的场景,需要对data1到dataN的磁盘数据都执行相同的备份操作。 备份元数据信息: cd /srv/BigData/data1/clickhouse_path/metadata/库名 mv 表名.sql 备份目录 例如,下面是备份default数据库下的表lineorder数据到/home/backup目录下。
取值范围 spark.sql.sources.partitionOverwriteMode 当前执行insert overwrite 命令插入数据到分区表时,支持两种模式:STATIC模式和DYNAMIC模式。STATIC模式下,Spark会按照匹配条件删除所有分区。在DYNAMIC模式
使用Hue提交Oozie SSH作业 操作场景 该任务指导用户通过Hue界面提交SSH类型的Oozie作业。 由于有安全攻击的隐患,所以默认是无法提交SSH作业的,如果想使用SSH功能,需要手动开启。 操作步骤 开启SSH功能(若当前集群无“oozie.job.ssh.enable”参数,则跳过该操作):
使用Hue提交Oozie SSH作业 操作场景 该任务指导用户通过Hue界面提交SSH类型的Oozie作业。 由于有安全攻击的隐患,所以默认是无法提交SSH作业的,如果想使用SSH功能,需要手动开启。 操作步骤 开启SSH功能(如果当前集群无“oozie.job.ssh.enable”参数,则跳过该操作):