-
Kafka日志介绍 - MapReduce服务 MRS
checkavailable.log Kafka服务健康状态检查日志。 checkInstanceHealth.log Broker实例健康状态检测日志。 kafka-authorizer.log Broker鉴权日志。 kafka-root.log Broker基础日志。 cleanup
-
添加跨集群HetuEngine数据源 - MapReduce服务 MRS
考表2。 表2 HetuEngine数据源自定义配置参数 名称 描述 取值样例 hsfabric.health.check.time 设置检测HSFabric实例状态的周期间隔,单位:秒 60 hsfabric.subquery.pushdown 开启跨域查询下推参数,默认开启。
-
配置Flink认证和加密 - MapReduce服务 MRS
${path}/flink.keystore keystore的存放路径,“flink.keystore”表示用户通过generate_keystore.sh*工具生成的keystore文件名称。 security.ssl.keystore-password - keystore的password,-表示需要用户输入自定义设置的密码值。
-
Yarn日志介绍 - MapReduce服务 MRS
SER>-<DATE>-<PID>-gc.log 垃圾回收日志。 yarn-haCheck.log ResourceManager主备状态检测日志。 yarn-service-check.log Yarn服务健康状态检查日志。 yarn-start-stop.log Yarn服务启停操作日志。
-
配置HetuEngine查询容错执行能力 - MapReduce服务 MRS
接OBS文件系统时,也能够支持TASK容错,但是中间数据仍然落盘至HDFS临时目录中。 集群默认会在查询结束时完成缓冲区文件清理,且每小时检测并清理存在超期1天的残留缓冲区文件,可通过如下操作关闭周期性清理功能: 登录Manager,选择“集群 > 服务 > HetuEngine
-
MapReduce日志介绍 - MapReduce服务 MRS
MR服务安装后启动前的工作日志。 yarn-cleanup.log MR服务卸载时候的清理日志。 mapred-service-check.log MR服务健康状态检测日志。 container_{$contid} Container日志。 hadoop-<SSH_USER>-<process_name>-<hostname>
-
MapReduce日志介绍 - MapReduce服务 MRS
MR服务安装后启动前的工作日志。 yarn-cleanup.log MR服务卸载时候的清理日志。 mapred-service-check.log MR服务健康状态检测日志。 container_{$contid} Container日志。 hadoop-<SSH_USER>-<process_name>-<hostname>
-
更新客户端(3.x及之后版本) - MapReduce服务 MRS
目录的读、写与执行权限。然后执行4。 否,单击“确定”指定本地的保存位置,开始下载完整客户端,等待下载完成,然后执行4。 使用WinSCP工具,以客户端安装用户将压缩文件保存到客户端安装的目录,例如“/opt/hadoopclient”。 解压软件包。 例如下载的客户端文件为“F
-
Yarn日志介绍 - MapReduce服务 MRS
SER>-<DATE>-<PID>-gc.log 垃圾回收日志。 yarn-haCheck.log ResourceManager主备状态检测日志。 yarn-service-check.log Yarn服务健康状态检查日志。 yarn-start-stop.log Yarn服务启停操作日志。
-
配置Flink认证和加密 - MapReduce服务 MRS
${path}/flink.keystore keystore的存放路径,“flink.keystore”表示用户通过generate_keystore.sh*工具生成的keystore文件名称。 security.ssl.keystore-password - keystore的password,-表示需要用户输入自定义设置的密码值。
-
CarbonData - MapReduce服务 MRS
CarbonData将数据源集成到Spark生态系统,用户可使用Spark SQL执行数据查询和分析,也可以使用Spark提供的第三方工具ThriftServer连接到Spark SQL。 CarbonData结构 CarbonData作为Spark内部数据源运行,不需要额外
-
通过Flume采集指定目录日志系统文件至HDFS - MapReduce服务 MRS
g.tar 步骤2:生成Flume配置文件 登录FusionInsight Manager,选择“集群 > 服务 > Flume > 配置工具”。 配置并导出“properties.properties”文件。 选择“Agent名”为“server”,分别选择“Avro Source”、“Memory
-
准备Flink应用安全认证 - MapReduce服务 MRS
${path}/flink.keystore keystore的存放路径,“flink.keystore”表示用户通过generate_keystore.sh*工具生成的keystore文件名称。 security.ssl.internal.keystore-password 123456 keyst
-
Impala - MapReduce服务 MRS
SQL),ODBC驱动程序和用户界面(Hue中的Impala查询UI)。这为实时或面向批处理的查询提供了一个熟悉且统一的平台。作为查询大数据的工具的补充,Impala不会替代基于MapReduce构建的批处理框架,例如Hive。基于MapReduce构建的Hive和其他框架最适合长时间运行的批处理作业。
-
修改FusionInsight Manager添加的路由表 - MapReduce服务 MRS
如果FusionInsight Manager创建的路由信息与企业网络规划配置的路由信息发生冲突时,集群管理员可以使用“autoroute.sh”工具禁用或启用Manager创建的路由信息。 对系统的影响 禁用Manager创建的路由信息后,在设置新的路由信息之前,FusionInsight
-
Kafka日志介绍 - MapReduce服务 MRS
checkavailable.log Kafka服务健康状态检查日志。 checkInstanceHealth.log Broker实例健康状态检测日志。 kafka-authorizer.log Broker鉴权日志。 kafka-root.log Broker基础日志。 cleanup
-
MRS 3.1.0版本补丁说明 - MapReduce服务 MRS
需特殊操作,MRS运维相关人员会及时介入处理并恢复。 安装完成后必须的手动操作 支持HDFS单副本检测能力 MRS 3.1.0.0.2补丁以及之后的补丁中,会增加HDFS单副本检测和告警能力,新增是否允许写入单副本数据配置项dfs.single.replication.enabl
-
准备Flink安全认证 - MapReduce服务 MRS
${path}/flink.keystore keystore的存放路径,“flink.keystore”表示用户通过generate_keystore.sh*工具生成的keystore文件名称。 security.ssl.keystore-password - keystore的password,表示需要用户输入自定义设置的密码值。
-
Spark客户端使用实践 - MapReduce服务 MRS
在Manager界面创建用户并开通其HDFS、YARN、Kafka和Hive权限。 根据所用的开发语言安装并配置IntelliJ IDEA及JDK等工具。 已完成Spark2x客户端的安装及客户端网络连接的配置。 对于Spark SQL程序,需要先在客户端启动Spark SQL或Beeline以输入SQL语句。
-
Sqoop对接外部存储系统 - MapReduce服务 MRS
-m或-num-mappers <n> 启动n个map来并行导入数据,默认是4个,该值请勿高于集群的最大Map数。 -direct 快速模式,利用了数据库的导入工具,如MySQL的mysqlimport,可以比jdbc连接的方式更为高效的将数据导入到关系数据库中。 -update-key <col-name>