检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在本地。 图1 下载认证凭据 配置Flume参数。 使用FusionInsight Manager界面中的Flume来配置Flume角色服务端参数并生成配置文件。 登录FusionInsight Manager,选择“集群 > 服务 > Flume > 配置工具”。 图2 选择配置工具
MRS Hive解决hive server内存泄露问题:HIVE-10970、HIVE-22275。 补丁兼容关系 MRS 2.1.0.2补丁包中包含MRS 2.1.0.1补丁包的全部内容。 安装补丁的影响 安装MRS 2.1.0.2补丁期间会重启MRS Manager,滚动重启Hiv
/cas/WEB-INF/web.xml中的<session-timeout>20</session-timeout>,值的单位为分钟。 修改/opt/Bigdata/tomcat/webapps/web/WEB-INF/web.xml中的<session-timeout>20<
mutations system.processes system.metrics system.part_moves_between_shards system.replicas system.replicated_fetches system.replication_queue 一键转储系统表日志
Manager界面,选择“集群 > 服务 > meta > 图表”,在“图表分类”选择“OBS数据读操作”,在“OBS的readFully接口调用失败数-所有实例”图表上查看OBS的readFully接口调用失败数最大值所在的实例的主机名称,例如,下图所示的主机名称为:node-ana-corevpeO003:
Manager界面,选择“集群 > 服务 > meta > 图表”,在“图表分类”选择“OBS数据读操作”,在“OBS的read接口调用失败数-所有实例”图表上查看OBS的read接口调用失败数最大值所在的实例的主机名称,例如,下图所示的主机名称为:node-ana-corevpeO003:
主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。 图2 基本信息界面 在“名称”中输入作业的名称。 在“类型”中选择“导出”。 在“组”中设置作业所属组,默认没有已创建的组,单击“添加”
主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。 图2 基本信息界面 在“名称”中输入作业的名称。 在“类型”中选择“导出”。 在“组”中设置作业所属组,默认没有已创建的组,单击“添加”
有主机的信息。系统默认为“主机视图”,单击“角色视图”切换视图类型,也可单击编辑按钮自定义各视图展示的内容。 表2 主机视图类型说明 视图类型 说明 主机视图 主要显示每个主机的IP地址信息、机架规划信息、运行状态以及硬件资源等使用情况。 角色视图 主要显示各主机上当前已部署的角
地。 图1 下载认证凭据 配置Flume参数。 使用FusionInsight Manager界面中的Flume配置工具来配置Flume角色服务端参数并生成配置文件。 登录FusionInsight Manager,选择“集群 > 服务 > Flume > 配置工具”。 图2 选择配置工具
选择package生命周期,执行Maven构建过程 在Run:中出现下面提示,则说明打包成功。 图5 打包成功提示 您可以从项目目录下的target文件夹中获取到Jar包。 图6 获取jar包 将2中生成的Jar包(如CollectFemaleInfo.jar)复制到Spark运行环境下
“Agent名”选择“client”,然后选择要使用的Source、Channel以及Sink,将其拖到右侧的操作界面中并将其连接。 例如采用SpoolDir Source、File Channel和Avro Sink,如图2所示。 图2 Flume配置工具示例 双击对应的Source、Channel以及Sink,根
配置工具”。 图2 选择配置工具 “Agent名”选择“server”,然后选择要使用的source、channel以及sink,将其拖到右侧的操作界面中并将其连接。 例如采用Kafka Source、Memory Channel和HDFS Sink,如图3所示。 图3 Flume配置工具示例
待操作集群的名称 > 服务 > ZooKeeper > 配置 > 全部配置 > 配额”中参数“max.znode.count”的值,调大阈值。 图2 修改规则 在“资源使用(按二级Znode)”中,选择“ > 按Znode数量”,进入“按容量”的“阈值设置”页面,单击“操作”下的“修改”。参考“集群
主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。 图2 基本信息界面 在“名称”中输入作业的名称。 在“类型”中选择“导出”。 在“组”中设置作业所属组,默认没有已创建的组,单击“添加”
主)”打开“Loader WebUI”界面。 图1 Loader WebUI界面 单击“新建作业”,进入“基本信息”界面,创建作业基本信息。 图2 基本信息界面 在“名称”中输入作业的名称。 在“类型”中选择“导出”。 在“组”中设置作业所属组,默认没有已创建的组,单击“添加”
通过Hue管理HBase表 操作场景 用户需要使用图形化界面在集群中创建或查询HBase表时,可以通过Hue完成任务。 如需在Hue WebUI中操作HBase,当前MRS集群中必须部署HBase的Thrift1Server实例。 Thrift1Server实例默认不会安装,用户
Eventlog日志回滚 配置场景 当Spark开启事件日志模式,即设置“spark.eventLog.enabled”为“true”时,就会往配置的一个日志文件中写事件,记录程序的运行过程。当程序运行很久,job很多,task很多时就会造成日志文件很大,如JDBCServer、Spark Streaming程序。
Eventlog日志回滚 配置场景 当Spark开启事件日志模式,即设置“spark.eventLog.enabled”为“true”时,就会往配置的一个日志文件中写事件,记录程序的运行过程。当程序运行很久,job很多,task很多时就会造成日志文件很大,如JDBCServer、Spark Streaming程序。
1-SNAPSHOT.jar 生产数据。 Window环境下在浏览器中访问链接:http://SpringBoot启动时绑定的IP地址:Springboot启动时绑定的端口/produce,生产数据到Broker。结果如下: 图1 生产数据 Linux环境下通过执行curl命令访问SpringBoot。