检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Manager与Application Master(简称AM)。 如果用户安装安全集群需要使用kerberos认证和security cookie认证。根据日志提示,发现配置文件中“security.kerberos.login.keytab :”配置项错误,未进行安全配置。 解决方法如下:
式后,仍然存在的故障才能上报告警,请谨慎操作。 开启MRS集群维护模式 登录FusionInsight Manager。 配置维护模式。 根据实际操作场景,确认需要配置维护模式的对象,参考表1进行操作。 表1 切换维护模式 场景 步骤 配置集群进入维护模式 在管理界面主页,选择“/更多
x及之前版本)。 自行搭建的客户端全量安装方法,请参见安装客户端(2.x及之前版本)。 重新安装客户端前建议先对老客户端进行备份。 若您根据业务场景修改过客户端配置,请重装客户端后再次修改客户端配置。 父主题: MRS集群补丁说明
用户没有登录管理控制台的账号,请先注册华为云。注册成功后,该账号可访问华为云的所有服务,包括MRS服务。 打开华为云网站。 单击“注册”,根据提示信息完成注册。 注册成功后,系统会自动跳转至您的个人信息界面。 个人或企业账号实名认证请参考:实名认证。 MRS服务授权操作 使用具有
// 通过brokers和topics直接创建kafka stream // 1.接收Kafka中数据,生成相应DStream JavaDStream<String> lines = KafkaUtils.createDirectStream(jssc
kafkaParams); //用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
kafkaParams); // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
kafkaParams); //用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
kafkaParams); // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
properties、log4j-session.properties文件中对应的日志级别配置项。 通过客户端提交作业时会在客户端log文件夹中生成相应日志文件,由于系统默认umask值是0022,所以日志默认权限为644;如果需要修改文件权限,需要修改umask值;例如修改omm用户umask值:
Driver负责任务的调度,和Executor、AM之间的消息通信。当任务数变多,任务平行度增大时,Driver内存都需要相应增大。 您可以根据实际任务数量的多少,为Driver设置一个合适的内存。 将“spark-defaults.conf”中的“spark.driver.memory”配置项设置为合适大小。
Execution,Deployment > Maven”,选择“Maven home directory”为本地安装的Maven版本。 然后根据实际情况设置好“User settings file”和“Local repository”参数,依次单击“Apply”、“OK”。 图8
Execution,Deployment > Maven”,选择“Maven home directory”为本地安装的Maven版本。 然后根据实际情况设置好“User settings file”和“Local repository”参数,依次单击“Apply > OK”。 图13
Driver负责任务的调度,和Executor、AM之间的消息通信。当任务数变多,任务平行度增大时,Driver内存都需要相应增大。 您可以根据实际任务数量的多少,为Driver设置一个合适的内存。 将“spark-defaults.conf”中的“spark.driver.memory”配置项设置为合适大小。
检查告警阈值配置或者平滑次数配置是否合理。 基于实际CPU使用情况,修改告警阈值和平滑次数配置项。 登录FusionInsight Manager,根据实际服务的使用情况在“运维 > 告警 > 阈值设置 > 待操作集群的名称 > 主机 > CPU > 主机CPU使用率”中更改告警的平滑次数,如图1所示。
概述”区域)查看“丢失块数”参数值是否为0。 是,处理完毕。 否,查看是否上报“ALM-14003 丢失的HDFS块数量超过阈值”告警,并根据告警帮助进行处理。 收集故障信息。 在FusionInsight Manager首页,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“HDFS”。
待操作集群的名称 > 服务 > Mapreduce > 配置 > 全部配置 > JobHistoryServer > 系统”。将“GC_OPTS”参数根据实际情况调大,并单击“保存”,单击“确定”并进重启。 历史任务数10000和JobHistoryServer内存的对应关系如下: -Xms30G
待操作集群的名称 > 服务> Storm > 配置 > 全部配置 > Nimbus > 系统”。将“NIMBUS_GC_OPTS”参数中“-Xmx”的值根据实际情况进行调整,然后单击“保存”,单击“确定”。 建议“-Xms”和“-Xmx”设置成相同的值,避免JVM动态调整堆内存大小时影响性能。
se和table是3中查询的结果。 show create table database.table; 执行以下SQL语句,删除只读表,再根据6的表结构信息,重新创建只读表,等待几分钟,再执行3中的SQL,查看结果中是否包含当前只读表。 drop database.table no
bigdata_env 执行以下命令,修改系统用户密码。 kpasswd 系统用户名称 例如修改系统用户“test1”密码。 kpasswd test1 根据界面提示输入原始密码后重新设置新密码,默认密码复杂度要求: 密码字符长度至少为8位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符