检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为什么主NameNode重启后系统出现双备现象 问题 为什么主NameNode重启后系统出现双备现象? 出现该问题时,查看ZooKeeper和ZKFC的日志,发现ZooKeeper服务端与客户端(ZKFC)通信时所使用的session不一致,ZooKeeper服务端的sessio
Oozie调度HiveSQL作业报错处理 问题现象 MRS 3.x集群Oozie调度Hive作业任务失败,查看日志HiveSQL,实际上是运行成功的,但Yarn任务总体失败,报错如下: java.io.ioException:output.properties data exceeds
数多于实际个数 问题背景 HBase启动后,HMaster原生页面显示RegionServer个数多于实际RegionServer个数。 查看HMaster原生页面,显示有4个RegionServer在线,如下图示: 原因分析 如下图可以看出,第三行hostname为contro
配置MRS云服务授权 用户通过MapReduce服务(MRS)管理控制台与MRS集群进行交互,查看MRS集群状态监控以及进行集群相关管理操作,首次使用MRS服务时需要进行服务授权。 进行服务授权后,MRS将在统一身份认证服务(IAM)中创建名为“mrs_admin_agency”
数为C,调整策略为A x B > C ,连接到HiveServer的session数可在Hive的监控界面查看监控指标“HiveServer的session数统计”。 查看本告警是否恢复。 是,操作结束。 否,执行4。 收集故障信息。 在FusionInsight Manager首页,选择“运维
Spark同步HBase数据到CarbonData开发思路 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步到CarbonData表中,用于分析型查询业务。 运行前置操作 安全模式下该样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytab和krb5
在“API凭证”页面获取“账号ID”、项目列表中查看项目ID。 为当前用户授权使用LakeFormation的权限。 在左上角单击“”,选择“大数据 > 湖仓构建 LakeFormation”。 查看是否弹出服务授权页面,或进入“服务授权”页面查看是否已授权。 是,勾选“同意LakeFo
回滚补丁后操作 回退HDFS上的组件包 登录集群主节点并执行以下命令: su - omm cd /opt/Bigdata/patches/{MRS补丁版本号}/client/ source /opt/Bigdata/client/bigdata_env 所有涉及{MRS补丁版本号
Manager页面,选择“运维 > 告警 > 告警”,单击“Procedure执行失败”告警前面的。 查看“定位信息”中“Porcedure信息”的值, 该值以Procedure类型开头,包括Procedure相关的主要信息。 查看副本补齐任务运行是否失败。 “Porcedure信息”的值是否以“AddRe
properties”中“security.protocol”的值为“SASL_SSL”或者“SSL”。 进入“客户端安装目录/Kafka/kafka/bin”使用shell命令时,根据上一步中配置的协议填写对应的端口,例如使用配置的“security.protocol”为“SASL_SSL”,则需要填写SASL_SSL协议端口,默认为21009:
编译并运行程序 指导用户将开发好的程序编译并提交运行。 编译并运行MapReduce应用 查看程序运行结果 程序运行结果会写在用户指定的路径下。用户还可以通过UI查看应用运行情况。 查看MapReduce应用调测结果 父主题: MapReduce应用开发概述
日志维护建议 利用日志记录来帮助发现非法操作、非法登录用户等异常情况。系统对于重要业务的操作需要记录日志。通过日志文件来定位异常。 定期检查日志 定期查看系统日志,若发现有非法操作、非法登录用户等异常情况,应根据异常情况进行相应的处理。 定期备份日志 Manager和集群提供的审计
conf”文件到Linux环境“/opt/client”目录下。 执行以下命令,进入集群客户端安装目录: cd /opt/client 执行以下命令,配置环境变量: source bigdata_env 执行以下命令进行开发程序调试: java -classpath hetu-examples-*
选中“告警ID”为“43009”的告警,查看“定位信息”中的实例的IP地址及角色名。 单击“组件管理 > Spark > 实例 > JobHistory(对应上报告警实例IP地址) > 定制 > JobHistory的GC时间”。单击“确定”,查看GC时间。 查看JobHistory进程的GC时间是否大于12秒。
-1.99.7/FusionInsight-Sqoop-1.99.7/server/jdbc/” 其中“XXX”为MRS版本号,请根据实际情况修改。 修改“mysql-connector-java-5.1.21.jar”包属主为“omm:wheel”。 修改配置文件“jdbc.properties”。
r_id} mrs:cluster:delete √ √ 查询主机列表(V1) GET /v1.1/{project_id}/clusters/{cluster_id}/hosts mrs:host:list √ √ 查询文件列表(V2) GET/v2/{project_id}/
保存并重启ClickHouse服务。 以客户端安装用户,登录客户端所在节点。 执行以下命令切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证当前用户(未启用Kerberos认证集群跳过此步骤)。 kinit clickhouseuser
选择“定制 > GC”,勾选“ZooKeeper垃圾回收(GC)时间”,单击“确定”,查看ZooKeeper每分钟的垃圾回收时间统计情况。 图1 ZooKeeper垃圾回收(GC)时间 查看ZooKeeper每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行4。
上角的下拉菜单,选择“定制 > 垃圾回收”,勾选“DataNode垃圾回收(GC)时间”。查看DataNode每分钟的垃圾回收时间统计情况。 图1 DataNode垃圾回收(GC)时间 查看DataNode每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行4。 否,执行7。
Spark同步HBase数据到CarbonData开发思路 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步到CarbonData表中,用于分析型查询业务。 运行前置操作 安全模式下该样例代码需要读取两个文件(user.keytab、krb5.conf)。user.keytab和krb5