-
HBase日志介绍 - MapReduce服务 MRS
的日志。 sendAlarm.log HBase告警检查脚本上报告警信息日志。 hbase-haCheck.log HMaster主备状态检测日志。 stop.log HBase服务进程启停操作日志。 审计日志 hbase-audit-<process_name>.log HBase安全审计日志。
-
管理服务和主机监控 - MapReduce服务 MRS
主机及主机上的服务角色正常运行。 已隔离 主机被用户隔离,主机上的服务角色停止运行。 主机健康状态描述如表8所示。 表8 主机健康状态 状态 描述 良好 主机心跳检测正常。 故障 主机心跳超时未上报。 未知 执行添加操作时,主机的初始状态。 默认以“主机名称”列按升序排列,单击主机名称、管理IP、业务I
-
HBase日志介绍 - MapReduce服务 MRS
的日志。 sendAlarm.log HBase告警检查脚本上报告警信息日志。 hbase-haCheck.log HMaster主备状态检测日志。 stop.log HBase服务进程启停操作日志。 审计日志 hbase-audit-<process_name>.log HBase安全审计日志。
-
Spark客户端使用实践 - MapReduce服务 MRS
在Manager界面创建用户并开通其HDFS、YARN、Kafka和Hive权限。 根据所用的开发语言安装并配置IntelliJ IDEA及JDK等工具。 已完成Spark2x客户端的安装及客户端网络连接的配置。 对于Spark SQL程序,需要先在客户端启动Spark SQL或Beeline以输入SQL语句。
-
CarbonData基本原理 - MapReduce服务 MRS
CarbonData将数据源集成到Spark生态系统,用户可使用Spark SQL执行数据查询和分析。也可以使用Spark提供的第三方工具JDBCServer连接到Spark SQL。 CarbonData结构 CarbonData作为Spark内部数据源运行,不需要额外启动
-
创建Hive角色 - MapReduce服务 MRS
ce /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新Hive用户的管理员权限。 set role admin; 设置在默认数据库中,查询其他用户表的权限
-
创建SparkSQL角色 - MapReduce服务 MRS
/opt/client/Spark2x/component_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 /opt/client/Spark2x/spark/bin/beeline -u "jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>
-
备份恢复简介 - MapReduce服务 MRS
建快照。 DistCp DistCp(distributed copy)是一个用于在本集群HDFS中或不同集群HDFS间进行大量数据复制的工具。在HBase、HDFS或Hive元数据的备份恢复任务中,如果选择将数据备份在备集群HDFS中,系统将调用DistCp完成操作。主备集群请
-
管理Loader连接(MRS 3.x及之后版本) - MapReduce服务 MRS
参数介绍具体可参见Loader连接配置说明。 单击“确定”。 如果连接配置,例如IP地址、端口、访问用户等信息不正确,将导致验证连接失败无法保存。 用户可以直接单击“测试”立即检测连接是否可用。 查看连接 在Loader页面,单击“新建作业”。 单击“连接”后的下拉列表框,可以查看已创建的连接。 编辑连接 在Loader页面,单击“新建作业”。
-
成本管理 - MapReduce服务 MRS
目业务中,让各责任组织及时了解各自的成本情况。 华为云成本中心支持通过多种不同的方式对成本进行归集和重新分配,您可以根据需要选择合适的分配工具。 通过关联账号进行成本分配 企业主客户可以使用关联账号对子客户的成本进行归集,从而对子账号进行财务管理。详细介绍请参见通过关联账号维度查看成本分配。
-
配置Hive读取Hudi表 - MapReduce服务 MRS
Hudi表数据在入湖的时候一般会同步到Hive外部表,此时在Beeline中可以直接查询到对应的Hive外部表,如果没有同步到Hive外部表,则可以通过Hudi客户端工具手动同步,具体步骤可参考将Hudi表数据同步到Hive。 查询Hudi表对应的Hive外部表 操作前提 使用Hive对Hudi表进行增量查
-
创建SparkSQL角色 - MapReduce服务 MRS
/opt/client/Spark2x/component_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 /opt/client/Spark2x/spark/bin/beeline -u "jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>
-
ClickHouse基本原理 - MapReduce服务 MRS
ClickHouse应用场景 ClickHouse是Click Stream + Data WareHouse的缩写,起初应用于一款Web流量分析工具,基于页面的点击事件流,面向数据仓库进行OLAP分析。当前ClickHouse被广泛的应用于互联网广告、App和Web流量、电信、金融、物
-
Manager日志清单 - MapReduce服务 MRS
Httpd:/var/log/Bigdata/httpd(httpd安装、运行日志) logman:/var/log/Bigdata/logman(日志打包工具日志) NodeAgent:/var/log/Bigdata/nodeagent(NodeAgent安装、运行日志) okerberos:
-
最新动态 - MapReduce服务 MRS
25,支持数据重分布 ClickHouse节点扩容后,数据迁移可以使得ClickHouse集群内数据达到均衡。 商用 使用ClickHouse数据迁移工具 2021年03月 序号 功能名称 功能描述 阶段 相关文档 1 缩容指定节点 当主机故障且不再需要时,使用该功能删除故障的主机,删除主机
-
使用CDM服务迁移HBase数据至MRS集群 - MapReduce服务 MRS
hbase.rootdir”指定在HDFS上的路径,华为云MRS集群的默认存储位置是“/hbase”文件夹下。 HBase自带的一些机制和工具命令也可以实现数据搬迁,例如通过导出Snapshots快照、Export/Import、CopyTable方式等,可以参考Apache官网相关内容。
-
Spark Java API接口介绍 - MapReduce服务 MRS
textFileStream(java.lang.String directory) 入参directory为HDFS目录,该方法创建一个输入流检测可兼容Hadoop文件系统的新文件,并且读取为文本文件。 void start() 启动Streaming计算。 void awaitTermination()
-
Manager日志清单 - MapReduce服务 MRS
Httpd:/var/log/Bigdata/httpd(httpd安装、运行日志) logman:/var/log/Bigdata/logman(日志打包工具日志) NodeAgent:/var/log/Bigdata/nodeagent(NodeAgent安装、运行日志) okerberos:
-
入门实践 - MapReduce服务 MRS
项“hbase.rootdir”指定在HDFS上的路径,华为云MRS的默认存储位置是“/hbase”文件夹下。 HBase自带的一些机制和工具命令也可以实现数据搬迁,例如:通过导出Snapshots快照、Export/Import、CopyTable方式等。 Hive数据迁移到华为云MRS服务
-
Spark Java API接口介绍 - MapReduce服务 MRS
textFileStream(java.lang.String directory) 入参directory为HDFS目录,该方法创建一个输入流检测可兼容Hadoop文件系统的新文件,并且读取为文本文件。 void start() 启动Spark Streaming计算。 void awaitTermination()