检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MRS用户无法同步至Ranger管理界面 问题 在MRS Manager界面创建了一个账户,在Ranger管理界面无法查看到该用户,重启UserSync后,可以查看到该用户。 回答 需要修改UserSync进程的GC内存默认为“-Xms1G -Xmx1G”,需要根据业务实际情况调整该参数值:
Manager管理界面,修改JDBCServer的参数“spark.authenticate.enableSaslEncryption”值为“false”,并重启对应的实例。 客户端作业: 客户端应用在提交应用的时候,修改spark-defaults.conf配置文件的“spark.authenticate
WebUI的用户是否具有“hadoop”用户组权限。 查看HDFS服务是否安装了HttpFS实例且运行正常。如果未安装HttpFS实例,需手动安装并重启Hue服务。 父主题: Hue故障排除
如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 对系统的影响 集群执行同步配置后,需要重启配置过期的服务,重启时对应的服务不可用。 重启配置过期的实例时,该实例不可用。 通过管理控制台同步集群配置 登录MRS管理控制台。 选择“现有集群”,选中一个运行
WebUI的用户是否具有“hadoop”用户组权限。 查看HDFS服务是否安装了HttpFS实例且运行正常。如果未安装HttpFS实例,需手动安装并重启Hue服务。 父主题: Hue常见问题
Manager管理界面,修改JDBCServer的参数“spark.authenticate.enableSaslEncryption”值为“false”,并重启对应的实例。 客户端作业: 客户端应用在提交应用的时候,修改spark-defaults.conf配置文件的“spark.authenticate
Streaming应用重启后,应用根据上一次读取的topic offset作为起始位置和当前topic最新的offset作为结束位置从Kafka上读取数据的。 Kafka服务的topic的leader异常后,如果Kafka的leader和follower的offset相差太大,用户重启Kafk
Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 正在运行的调度任务会阻塞,无法提交新的调度任务。 可能原因 HDFS服务重启、故障或网络故障导致Oozie与HDFS连接状态异常。 处理步骤 检查HDFS服务状态。 在FusionInsight Manager的服
fallBackToHdfs”,修改该参数值为“false”。 图2 修改“spark.sql.statistics.fallBackToHdfs”参数值 保存配置并重启JDBCServer2x实例。 使用安装客户端用户登录客户端安装节点。 配置环境变量。 source 客户端安装目录/bigdata_env
ontainer最大内存可用值。不支持实例级别的修改,需要在Yarn服务的配置中修改参数值,并重启Yarn服务。 单击“保存配置”,勾选“重新启动受影响的服务或实例”,单击“确定”。重启NodeManager角色实例。 界面提示“操作成功。”,单击“完成”,NodeManager角色实例成功启动。
登录FusionInsight Manager,选择“集群 > 服务 > Hive > 实例”,勾选所有WebHCat实例,选择“更多 > 重启实例”,等待WebHCat重启成功即可。 父主题: 使用Hive
DBServer实例一直处于Restoring状态 问题背景与现象 DBServer实例状态一直是Restoring状态,重启之后仍然不恢复。 原因分析 DBService组件会对“${BIGDATA_HOME}/MRS_XXX/install/dbservice/ha/modu
maximum-allocation-mb”可配置单个Container最大内存可用值。不支持实例级别的修改,需要在Yarn服务的配置中修改参数值,并重启Yarn服务。 单击“保存”,单击“确定”。重启NodeManager角色实例。 界面提示“操作成功”,单击“完成”,NodeManager角色实例成功启动。 父主题:
、进程内存占用等。 Worker节点负载太高,出现OOM(Out of Memory)导致无法提供服务。 Worker节点出现GC导致自动重启。 调优方法: Worker节点本身故障: 若不同时间报错统一出现在同一个Worker上,优先排查该节点本身问题,例如网络是否正常,是否存在其它进程占用节点内存资源。
Oracle 12及以后版本 GBase GBase8a V950及以后版本 HetuEngine数据源的添加、配置、删除等操作支持动态生效,无须重启集群。 目前动态生效不支持关闭,数据源动态生效时间默认为60秒。如需修改动态生效时间,请参考3.e修改“coordinator.config
已安装Ranger服务且服务运行正常。 已启用Hive服务的Ranger鉴权功能,并且需要先重启Hive服务,再重启Spark服务,再启用Spark服务的Ranger鉴权。启用Spark服务的Ranger鉴权后再重启Spark服务。 已创建用户需要配置权限的用户、用户组或Role。 创建的用户已加入hive用户组。
已安装Ranger服务且服务运行正常。 已启用Hive服务的Ranger鉴权功能,并且需要先重启Hive服务,再重启Spark服务,再启用Spark服务的Ranger鉴权。启用Spark服务的Ranger鉴权后再重启Spark服务。 已创建用户需要配置权限的用户、用户组或Role。 创建的用户已加入hive用户组。
单击“概览”,在ZooKeeper概览页面右上角选项“更多 > 重启服务”,输入密码进行验证后,在“重启服务”页面确认操作影响。 可以勾选“同时重启上层服务。”一次性重启所有影响组件,期间将导致影响服务不可用,谨慎使用。 单击“确定”,等待服务重启成功。 选择“集群 > 主备集群容灾”,查看当前集群是否配置了主备容灾。
t插件进行安全kafka对接,但仍然存在使用旧插件storm-kafka的用户和场景,在这种场景下如何正确指定消费的offset,避免每次重启拓扑后都从头开始消费? 回答 旧插件storm-kafka中的KafkaSpout使用的是Kafka的“SimpleConsumer”接口
为“-Xms32G -Xmx32G -XX:NewSize=2G -XX:MaxNewSize=3G”。 重启一个NameNode,确认该NameNode可以正常启动。 重启另一个NameNode,确认页面状态恢复。 父主题: 使用HDFS