-
Spark从HBase读取数据再写入HBase样例程序(Python) - MapReduce服务 MRS
Spark从HBase读取数据再写入HBase样例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关ap
-
Spark从HBase读取数据再写入HBase样例程序(Python) - MapReduce服务 MRS
Spark从HBase读取数据再写入HBase样例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关ap
-
Spark从Hive读取数据再写入HBase样例程序(Scala) - MapReduce服务 MRS
Spark从Hive读取数据再写入HBase样例程序(Scala) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata
-
Spark从Hive读取数据再写入HBase样例程序(Java) - MapReduce服务 MRS
Spark从Hive读取数据再写入HBase样例程序(Java) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata
-
Spark从HBase读取数据再写入HBase样例程序(Java) - MapReduce服务 MRS
Spark从HBase读取数据再写入HBase样例程序(Java) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei
-
Spark从Hive读取数据再写入HBase样例程序开发思路 - MapReduce服务 MRS
Spark从Hive读取数据再写入HBase样例程序开发思路 场景说明 假定Hive的person表存储用户当天消费的金额信息,HBase的table2表存储用户历史消费的金额信息。 现person表有记录name=1,account=100,表示用户1在当天消费金额为100元。
-
使用CDL从Hudi同步数据到ClickHouse - MapReduce服务 MRS
使用CDL从Hudi同步数据到ClickHouse 操作场景 本章节指导用户通过MRS 3.2.0版本开启Kerberos认证的集群的CDLService WebUI界面,从Hudi导入数据到ClickHouse。 前提条件 集群已安装CDL、Hudi和ClickHouse服务且运行正常。
-
使用CDL从PgSQL同步数据到Kafka - MapReduce服务 MRS
使用CDL从PgSQL同步数据到Kafka 操作场景 本章节指导用户通过MRS 3.2.0版本开启Kerberos认证的集群的CDLService WebUI界面,从PgSQL导入数据到Kafka。 前提条件 集群已安装CDL、Kafka服务且运行正常。 PostgreSQL数据
-
样例:通过Loader将数据从OBS导入HDFS - MapReduce服务 MRS
样例:通过Loader将数据从OBS导入HDFS 操作场景 用户需要将大量数据从集群外导入集群内的时候,可以选择从OBS导入到HDFS的方式。 前提条件 已准备业务数据。 已创建分析集群。 操作步骤 将业务数据上传到用户的OBS文件系统。 获取用户的AK/SK信息,然后创建一个OBS连接和一个HDFS连接。
-
Spark从Hive读取数据再写入HBase样例程序(Python) - MapReduce服务 MRS
Spark从Hive读取数据再写入HBase样例程序(Python) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
-
Spark从Hive读取数据再写入HBase样例程序(Java) - MapReduce服务 MRS
Spark从Hive读取数据再写入HBase样例程序(Java) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata
-
启动从PgSQL中抓取数据到Hudi任务报错 - MapReduce服务 MRS
启动从PgSQL中抓取数据到Hudi任务报错 现象描述 启动从PgSQL中抓取数据到Hudi任务报错:Record key is empty 可能原因 Hudi表主键参数“table.primarykey.mapping”未配置。 处理步骤 登录FusionInsight Manager,选择“集群
-
安装客户端(3.x及之后版本) - MapReduce服务 MRS
客户端安装目录路径只能包含大写字母、小写字母、数字以及_字符。 卸载客户端请手动删除客户端安装目录。 如果要求安装后的客户端仅能被该安装用户使用,请在安装时加“-o”参数,例如执行./install.sh /opt/hadoopclient -o命令安装客户端。 客户端安装完成后
-
典型场景:从HDFS/OBS导入数据到HBase - MapReduce服务 MRS
路径参数可以使用宏定义,具体请参考配置项中使用宏定义。 /user/test 路径过滤器 配置通配符对源文件的输入路径包含的目录进行过滤。“输入路径”不参与过滤。配置多个过滤条件时使用“,”隔开,配置为空时表示不过滤目录。不支持正则表达式过滤。 * 文件过滤器 配置通配符对源文件的输入文件名进行过滤。配置多个过滤条件时使用“
-
安装Flume客户端 - MapReduce服务 MRS
安装Flume客户端 安装MRS 3.x之前版本Flume客户端 安装MRS 3.x及之后版本Flume客户端 父主题: 附录
-
安装Flume客户端 - MapReduce服务 MRS
客户端数量是否为1。 是,采用单独安装模式,执行8,安装结束。 否,采用批量安装模式,执行9。 在Flume客户端安装目录下执行以下命令,安装客户端到指定目录(绝对路径),例如安装到“/opt/FlumeClient”目录。客户端安装成功后单独安装结束。 cd /opt/clien
-
配置Flume加密传输 - MapReduce服务 MRS
“flume_sChat.jks”是Flume角色服务端的证书库,“flume_sChat.crt”是“flume_sChat.jks”证书的导出文件,“-f”配置项是证书和证书库的密码; “flume_cChat.jks”是Flume角色客户端的证书库,“flume_cChat.crt”是“flume_cChat
-
从HBase读取数据再写入HBase - MapReduce服务 MRS
从HBase读取数据再写入HBase 场景说明 Java样例代码 Scala样例代码 父主题: 开发Spark应用
-
从Hive读取数据再写入HBase - MapReduce服务 MRS
从Hive读取数据再写入HBase 场景说明 Java样例代码 Scala样例代码 父主题: 开发Spark应用
-
典型场景:从HDFS导入数据到ClickHouse - MapReduce服务 MRS
路径参数可以使用宏定义,具体请参考配置项中使用宏定义。 /user/test 路径过滤器 配置通配符对源文件的输入路径包含的目录进行过滤。“输入路径”不参与过滤。配置多个过滤条件时使用“,”隔开,配置为空时表示不过滤目录。不支持正则表达式过滤。 * 文件过滤器 配置通配符对源文件的输入文件名进行过滤。配置多个过滤条件时使用“