检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参考创建FlinkServer权限角色。该用户同时需要具有FusionInsight Manager界面相关页面的访问权限,例如绑定“System_administrator”角色。 在“Flink WebUI”右侧,单击链接,访问Flink的WebUI。 图1 访问Flink的WebUI
结束位置不能小于开始位置。 字符截取的开始位置或结束位置,大于输入字段的长度时,当前行成为脏数据。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下: abcd,product FusionInsight,Bigdata 配置“剪切字符串”算子后,生成两个新字段C和D:
结束位置不能小于开始位置。 字符截取的开始位置或结束位置,大于输入字段的长度时,当前行成为脏数据。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下: abcd,product FusionInsight,Bigdata 配置“剪切字符串”算子后,生成两个新字段C和D:
Exception { // 打印出执行flink run的参考命令 System.out.println("use command as: "); System.out.println("./bin/flink run --class com.huawei
Array[String]) { // 打印出执行flink run的参考命令 System.out.println("use command as: ") System.out.println("./bin/flink run --class com.huawei
def main(args: Array[String]): Unit = { System.out.println("use command as: ") System.out.println("./bin/flink run --class com.huawei
创建Configuration 功能介绍 HBase通过加载配置文件来获取配置项,包括用户登录信息配置项。 代码样例 下面代码片段在com.huawei.bigdata.hbase.examples包中。 调用类TestMain下的init()方法会初始化Configuration对象:
删除HDFS指定目录 功能简介 删除HDFS上某个指定目录。 被删除的目录会被直接删除,且无法恢复。所以,执行删除操作需谨慎。 代码样例 如下是删除文件的代码片段,详细代码请参考com.huawei.bigdata.hdfs.examples中的HdfsExample类。 /** *
RS集群已安装Hive。 使用“Data Browsers”管理Hive中的表。需要MRS集群已安装Hive。 使用查看HDFS中的目录和文件。需要MRS集群已安装HDFS。 使用查看MRS集群中所有作业。需要MRS集群已安装YARN。 使用创建的用户第一次登录Hue WebUI,需修改密码。
Array[String]) { // 打印出执行flink run的参考命令 System.out.println("use command as: ") System.out.println("./bin/flink run --class com.huawei
(args.length >= 2) { // 用户更改了默认的keytab文件名,这里需要将新的keytab文件名通过参数传入 conf.put(Config.TOPOLOGY_KEYTAB_FILE, args[1]); } // 定义KafkaSpout KafkaSpout
Spark Core样例程序(Scala) 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码样例 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples.FemaleInfoCollection: 样例:类CollectMapper
配置Flink读写Doris数据 Flink Doris Connector支持通过Flink操作(读取、插入、修改、删除)Doris中存储的数据。 只能对Unique Key模型的表进行修改和删除操作。 该章节仅适用于MRS 3.5.0及之后版本。 前提条件 已创建包含Doris服务的集群,集群内各服务运行正常。
通过配置如下参数可以实现Executor退出时执行自定义代码。 配置参数 在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 参数 说明 默认值 spark.executor.execute.shutdown.cleaner 配置为true后,支持executor退出时执行自定义代码。
throws Exception { // 打印出执行flink run的参考命令 System.out.println("use command as: "); System.out.println("./bin/flink run --class com.huawei
删除Hive on HBase表中的单行记录 操作场景 由于底层存储系统的原因,Hive并不能支持对单条表数据进行删除操作,但在Hive on HBase功能中,MRS Hive提供了对HBase表的单条数据的删除功能,通过特定的语法,Hive可以将自己的HBase表中符合条件的一条或者多条数据清除。
技能开发和查询设计上的投资,Impala提供了与Hive查询语言(HiveQL)的高度兼容性。 由于Impala使用与Hive相同的元数据存储来记录有关表结构和属性的信息,因此Impala可以访问通过本机Impala CREATE TABLE命令定义的表,也可以访问使用Hive数据定义语言(DDL)创建的表。
本章节适用于MRS 3.5.0及以后版本。 当使用Flink的Full outer Join算子实现宽表拼接功能时,由于状态会被多次重复存储导致状态后端压力大,计算性能差。使用MultiJoin算子进行宽表拼接计算性能可以提升1倍。 FlinkSQL支持MultiJoin算子使用限制
配置Doris对接Hudi数据源 在MRS集群元数据存储在Hive MetaStore的场景中,Doris 2.0.13版本支持通过Catalog的方式对接Hudi 0.15.0版本数据源,支持对接Hudi所有的数据字段类型。 该操作适用于MRS 3.5.0版本。 Doris支持查询的Hudi表类型
} }, { "name": "default", "description": "system-generated", "number_member": 1, "members": [ {