检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置Windows通过EIP访问安全模式集群Kafka 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Kafka文件的方法,方便用户可以在本地对样例文件进行编译。 操作步骤 为集群的每个节点申请弹性公网IP,并将本地Windows的hosts文件添加所有节点的公网IP对应
配置Windows通过EIP访问普通模式集群Kafka 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Kafka文件的方法,方便用户可以在本地对样例文件进行编译。 操作步骤 为集群的每个节点申请弹性公网IP,并将本地Windows的hosts文件添加所有节点的公网IP对应
登录FusionInsight Manager,选择“集群 > 服务 > LdapServer”。 在概览页面右上角选择 “更多 > 修改数据库密码”,在弹出窗口中输入当前登录的用户密码确认身份,单击“确定”。 在“修改密码”对话框的“用户信息”中选择需要修改密码的用户名。 在“
bigdata_env kinit 组件业务用户(集群未启用Kerberos认证(普通模式)请跳过该操作) 执行以下命令登录HBase客户端,并创建表,写入数据后不要关闭HBase客户端。 hbase shell create 'test_multicast',‘f1’ put 'test_multicast'
output, check the application tracking page:https://bigdata-55:8090/cluster/app/application_1449841777199_0003 Then click on links to logs of
服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 老年代GC时间超出阈值,会影响HBase数据的读写变慢,严重情况下,会出现请求超时。 可能原因 该节点HBase实例内存使用率过大,或配置的堆内存不合理,或HBase存在大量的IO操作,导致进程GC频繁。
在IntelliJ IDEA的菜单栏中,选择“File > Settings...” 图9 Settings 选择“Build,Execution,Deployment > Maven”,选择Maven home directory为本地安装的Maven版本。 然后根据实际情况设置好“User settings
色名字与描述。 在“配置资源权限”区域选择“Manager”,按照以下说明设置角色“权限”。 图2 设置权限 Manager权限: Cluster: 查看权限:“集群”页面查看权限、“运维 > 告警”页面下“告警”、“事件”的查看权限。 管理权限:“集群”、“运维”页面的管理权限。
流式集群包含的组件有:Kafka,KafkaManager,Storm,Flume 获取集群ID 在调用作业相关接口的时候,部分URL中需要填入集群ID(cluster_id),所以需要先在管理控制台上获取到集群ID。集群ID获取步骤如下: 登录MRS管理控制台。 选择“现有集群”,单击待操作集群的集群名称,进入集群详情页面。
2-LTS支持升级到MRS 3.2.0-LTS,MRS 3.2.0-LTS支持升级到MRS 3.3.0-LTS。 集群补丁升级 现网存量运行的MRS集群,如果有大数据组件社区重大问题或者漏洞,MRS将提供对集群打补丁能力,详情请参见MRS集群补丁说明。 版本约束 集群升级到新版本后,不支持回退到老版本。
IDEA的菜单栏中,选择“File > Settings...”。 图11 Settings 选择“Build,Execution,Deployment > Maven”,选择Maven home directory为本地安装的Maven版本。 然后根据实际情况设置好“User settings
文件或目录路径命令。确认删除无用的文件后,等待文件在垃圾站中超过保留时间后(NameNode的配置参数“fs.trash.interval”指定了垃圾站中数据的保留时间),检查本告警是否清除。 删除文件为高危操作,在执行操作前请务必确认对应文件是否不再需要。 是,处理完毕。 否,执行9。 收集故障信息。
用配置参数。 其他日志:“/var/log/Bigdata/spark2x” 日志归档规则: 使用yarn-client或yarn-cluster模式提交任务时,Executor日志默认50MB滚动存储一次,最多保留10个文件,不压缩。 JobHistory2x日志默认100MB
用配置参数。 其他日志:“/var/log/Bigdata/spark2x” 日志归档规则: 使用yarn-client或yarn-cluster模式提交任务时,Executor日志默认50MB滚动存储一次,最多保留10个文件,不压缩。 JobHistory2x日志默认100MB
保存”保存配置。单击“概览”,选择“更多 > 重启服务”,重启HBase服务。 HBase服务重启期间,HBase服务的业务无法使用,包括数据读写、表相关操作、访问HBase WebUI界面等。 等待几分钟后,在告警列表中查看该告警是否清除。 是,处理完毕。 否,执行15。 检查RegionServer
存”保存配置。 单击“概览”,选择“更多 > 重启服务”,重启HBase服务。 HBase服务重启期间,HBase服务的业务无法使用,包括数据读写、表相关操作、访问HBase WebUI界面等。 等待几分钟后,在告警列表中查看该告警是否清除。 是,处理完毕。 否,执行9。 检查慢盘故障。
如示例中的WordCount,成功之后再使用提交用户登录并提交拓扑。 拓扑提交成功后请自行登录HBase集群查看WordCount表是否有数据生成。 如果使用票据登录,则需要使用命令行定期上传票据,具体周期由票据刷新截止时间而定,步骤如下。 在安装好的storm客户端目录的Storm/storm-0
name", _RK_C_STR, + _RK(sasl.domain_name), + "This cluster´s Kerberos domain name.", + .sdef = "hadoop.hadoop.com" }
Zookeeper实例所在节点IP:Zookeeper Client的端口/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=sparkthriftserver;saslQop=auth-conf;auth=KERBEROS;principal=spark2x/hadoop
存”保存配置。 单击“概览”,选择“更多 > 重启服务”,重启HBase服务。 HBase服务重启期间,HBase服务的业务无法使用,包括数据读写、表相关操作、访问HBase WebUI界面等。 等待几分钟后,在告警列表中查看该告警是否清除。 是,处理完毕。 否,执行9。 检查RegionServer配置。