检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
介绍数据迁移前的准备工作、元数据导出、数据拷贝、数据恢复等内容。 Hadoop数据迁移到华为云MRS服务 本实践使用华为云CDM服务将Hadoop集群中的数据(支持数据量在几十TB级别或以下的数据量级)迁移到华为云MRS服务。 HBase数据迁移到华为云MRS服务 本实践使用华为云CDM服务将HBase集
HA原理与实现方案 HBase中的HMaster负责Region分配,当RegionServer服务停止后,HMaster会把相应Region迁移到其他RegionServer。为了解决HMaster单点故障导致HBase正常功能受到影响的问题,引入HMaster HA模式。 图1 HMaster高可用性实现架构
IP Address函数 contains(network, address) → boolean 当CIDR网络中包含address时返回true。 示例: 返回true: SELECT contains('10.0.0.0/8', IPADDRESS '10.255.255.255');
MRS普通版本集群 MRS普通版本集群无法实现低版本到高版本的平滑升级。如需体验新版本集群相关能力,建议重新创建一个新版本的集群,然后将老版本集群的数据迁移到新的集群。 MRS LTS版本集群 MRS LTS版本集群支持版本升级能力,可从历史版本升级至目标LTS版本。如果需要使用版本升级能力,需
基于binlog的MySQL数据同步到MRS集群中 本章节为您介绍使用Maxwell同步工具将线下基于binlog的数据迁移到MRS Kafka集群中的指导。 Maxwell是一个开源程序(https://maxwells-daemon.io),通过读取MySQL的binlog日
导入导出Hive表/分区数据 操作场景 在大数据应用场景中,往往存在将Hive中的数据表迁移到另一个集群上,使用Hive的导入导出命令可以实现表级别数据迁移,即可使用Export命令将源集群的Hive表导出到目标集群的HDFS中,再在目标集群使用Import命令将导出的数据导入到相应的Hive表中。
hive-staging时,查询数据库失败问题 解决NameNode在大量删除操作的时候会出现RPC请求处理慢的问题 解决Hive配置Redis缓存频繁访问表key导致Redis热键问题 解决磁盘写速率和磁盘读速率两个指标无法正常上报问题 解决查看指定时间段内的资源概况,监控数据部分缺失问题 解决NameNode退服缓存残留问题
在MapReduce作业的提交阶段,将HFile从临时目录迁移到HBase目录中。 数据导入HDFS 在MapReduce作业的Map阶段中从外部数据源抽取数据,并将数据输出到HDFS临时目录下(以“输出目录-ldtmp”命名)。 在MapReduce作业的提交阶段,将文件从临时目录迁移到输出目录中。 数据导出到关系型数据库
基于binlog的MySQL数据同步到MRS集群中 本章节为您介绍使用Maxwell同步工具将线下基于binlog的数据迁移到MRS Kafka集群中的指导。 Maxwell是一个开源程序(https://maxwells-daemon.io),通过读取MySQL的binlog日
DROP TABLE 命令功能 DROP TABLE的功能是用来删除已存在的Table。 命令格式 DROP TABLE [IF EXISTS] [db_name.]table_name; 参数描述 表1 DROP TABLE参数描述 参数 描述 db_name Database
CREATE SECONDARY INDEX 命令功能 该命令用于在CarbonData表中创建二级索引表。 命令格式 CREATE INDEX index_name ON TABLE [db_name.]table_name (col_name1, col_name2) AS 'carbondata'
CREATE SECONDARY INDEX 命令功能 该命令用于在CarbonData表中创建二级索引表。 命令格式 CREATE INDEX index_name ON TABLE [db_name.]table_name (col_name1, col_name2) AS 'carbondata'
通过Flink作业处理OBS数据 使用Hive分析HDFS数据 通过Flume采集日志至HDFS 数据迁移 Hadoop数据迁移到MRS HBase数据迁移到MRS Hive数据迁移到MRS MySQL数据迁移到MRS Hive 06 API 通过MRS开放的丰富API和调用示例,您可以使用并管理集群、作业等。
原因:保障退服节点数据迁移到未退服节点。 Kudu/KuduTserver 规则:KuduTserver退服时,集群中的其他Kudu实例节点都必须处于正常状态才能退服,否则会导致退服失败。 原因:KuduTserver退服时要执行rebalance命令,将被退服实例上的tablet迁移到集群上其
均衡Kafka扩容节点后数据 操作场景 用户可以在Kafka扩容节点后,在客户端中执行Kafka均衡工具来均衡Kafka集群的负载。 本章节内容适用于MRS 3.x之前版本。3.x及之后版本请参考配置Kafka数据均衡工具。 前提条件 MRS集群管理员已明确业务需求,并准备一个K
MOR表Compaction计划触发条件。 200 compaction.async.enabled 必填 是否开启在线压缩。将compaction操作转移到sparksql运行,提升写性能。 FALSE hive_sync.enable 选填 是否向Hive同步表信息。 True hive_sync
如何迁移Hive/HDFS的数据到ClickHouse 问题 如何迁移Hive/HDFS的数据到ClickHouse。 回答 可以将Hive中的数据导出为CSV文件,再将CSV文件导入到 ClickHouse。 从Hive中导出数据为 CSV: hive -e "select *
如何迁移Hive/HDFS的数据到ClickHouse 问题 如何迁移Hive/HDFS的数据到ClickHouse。 回答 可以将Hive中的数据导出为CSV文件,再将CSV文件导入到ClickHouse。 从Hive中导出数据为CSV: hive -e "select * from
final String sqlPath = ParameterTool.fromArgs(args).get("sql", "config/redisSink.sql"); final StreamExecutionEnvironment streamEnv = Str
概述 本章节内容适用于MRS 3.x及后续版本。 Flink从0.10.0版本开始提供了一套API可以将使用Storm API编写的业务平滑迁移到Flink平台上,只需要极少的改动即可完成。通过这项转换可以覆盖大部分的业务场景。 Flink支持两种方式的业务迁移: 完整迁移Storm业务:转换并运行完整的由Storm