正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
lifo 配置是否开启Kafka后进先出功能。 false spark.streaming.kafka010.inputstream.class 获取解耦在FusionInsight侧的类。 org.apache.spark.streaming.kafka010.xxDirectKafkaInputDStream
节点同时运行的进程过多,需要扩展pid_max值。 处理步骤 扩展pid_max值。 打开FusionInsight Manager页面,在实时告警列表中,单击此告警所在行的,获取告警所在主机IP地址。 以root用户登录告警所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行命令cat /proc/sys
否,请先安装gdb工具,再执行3。 是,执行3。 使用gdb工具查看core文件的详细堆栈信息: 进入“DumpedFilePath”目录,找到core文件。 执行如下命令获取core文件符号表: source $BIGDATA_HOME/mppdb/.mppdbgs_profile cd ${BIGDATA_H
lifo 配置是否开启Kafka后进先出功能。 false spark.streaming.kafka010.inputstream.class 获取解耦在FusionInsight侧的类 org.apache.spark.streaming.kafka010.HWDirectKafkaInputDStream
nager的元数据,比如运行Job的信息,会提供给新的JobManager使用。对于TaskManager的失败,由JobManager上Akka的DeathWatch机制处理。当TaskManager失败后,重新向Yarn申请容器,创建TaskManager。 Yarn模式的HA方案的更多信息,可参考链接:
"kafka"); props.put("max.request.size", "5252880"); // 安全协议类型 props.put(securityProtocol, kafkaProc.getValues(securityProtocol
储支持。Hive数据库中的所有数据文件都可以存储在Hadoop HDFS文件系统上,Hive所有的数据操作也都是通过Hadoop HDFS接口进行的。 Hive与MapReduce组件的关系 Hive的数据计算依赖于MapReduce。MapReduce也是Apache的Hado
使用Hue WebUI操作Hive表 Hue汇聚了与大多数Apache Hadoop组件交互的接口,致力让用户通过界面图形化的方式轻松使用Hadoop组件。目前Hue支持HDFS、Hive、HBase、Yarn、MapReduce、Oozie和SparkSQL等组件的可视化操作。
注册时跳过读取_ro后缀的读优化视图 N false --use-file-listing-from-metadata 从Hudi的元数据中获取文件列表 N false --verify-metadata-file-listing 根据文件系统验证Hudi元数据中的文件列表 N false
表可以设计的非常稀疏。 接口类型简介 由于HBase本身是由java语言开发出来的,且java语言具有简洁通用易懂的特性,推荐用户使用java语言进行HBase应用程序开发。 HBase采用的接口与Apache HBase保持一致。 HBase通过接口调用,可提供的功能如表1所示。
注册时跳过读取_ro后缀的读优化视图 N false --use-file-listing-from-metadata 从Hudi的元数据中获取文件列表 N false --verify-metadata-file-listing 根据文件系统验证Hudi元数据中的文件列表 N false
等待五分钟,检查该告警是否恢复。 是,处理完毕。 否,执行4。 修改磁盘权限 在“运维 > 告警 > 告警”页面,查看该告警的“定位信息”和“附加信息”,获取该告警上报的故障磁盘位置信息。 以root用户登录上报告警的节点,用户密码为安装前用户自定义,请咨询系统管理员,进入故障磁盘所在目录,使用
告警 > 告警”,打开告警“ALM-13010 配置quota的目录Znode使用率超出阈值”左侧下拉菜单,在“定位信息”的“服务目录”中获取告警的Znode路径。 以集群用户登录ZooKeeper客户端,删除告警对应Znode下的无用数据。 登录FusionInsight Manager,选择“集群
执行以下命令切换用户: sudo su - root su - omm 执行echo ${BIGDATA_DATA_HOME}/dbdata_om命令获取GaussDB的数据目录。 执行df -h命令,查看系统磁盘分区的使用信息。 查看GaussDB数据目录挂载磁盘是否剩余空间不足。 是,执行14。
HetuEngine样例程序开发思路 通过典型场景,用户可以快速学习和掌握HetuEngine的开发过程,并且对关键的接口函数有所了解。 场景说明 假定用户开发一个应用程序,需要对Hive数据源的A表和MPPDB数据源的B表进行join运算,则可以用HetuEngine来实现Hive数据源数据查询,流程如下:
管理控制台与FusionInsight Manager页面的区别和联系请参考下表: 常用操作 MRS Console FusionInsight Manager 切换子网、添加安全组规则、OBS权限控制、管理委托、IAM用户同步 支持 不支持 新增节点组、扩容、缩容、升级规格 支持 不支持 隔离主机、启动所有角色、停止所有角色
> 服务 > Zookeeper > 实例”,查看Zookeeper各角色的管理IP。 登录客户端所在节点,配置环境变量并认证用户(未开启Kerberos认证的集群无需操作)后执行如下命令: zkCli.sh -server ip:port 其中ip可以为任意管理IP,port默认值是2181。
查看JournalNode实例是否启动。 登录MRS集群详情页面,单击“告警管理”,在告警列表中单击此告警。 在“告警详情”区域,查看“定位信息”,获取告警产生的JournalNode节点IP地址。 单击“组件管理 > HDFS > 实例”,在实例列表中单击告警节点上的JournalNod
例所在节点是否故障。 登录MRS集群详情页面,选择“组件管理”。 选择“LdapServer > 实例”。进入LdapServer实例页面获取两个SlapdServer实例所在节点的主机名。 在“告警管理”页面,查看是否有ALM-12006 节点故障告警产生。 是,执行1.d。 否,执行2
等待5分钟,检查该告警是否恢复。 是,处理完毕。 否,执行4。 修改磁盘权限 在“运维 > 告警 > 告警”页面,查看该告警的“定位信息”和“附加信息”,获取该告警上报的故障磁盘位置信息。 以root用户登录上报告警的节点,用户密码为安装前用户自定义,请咨询系统管理员,进入故障磁盘所在目录,使用