检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录FusionInsight Manager界面,查看右上角任务。 查看当前集群是否存在正在运行的任务。 是,等待任务运行结束。 否,检查结束。 检查集群是否有非标修改组件配置的操作 询问客户是否有做过相关操作。 查看该客户档案,是否有记录相关非标操作。 是,需要详细评估补丁跟非标配置的兼容性。 否,检查结束。
= ConnectionFactory.createConnection(hbaseConfig); // 获取HBase表 Table table = conn.getTable(TableName.valueOf(tableName));
对同一目录创建多个外表,可能导致外表查询失败 问题 假设存在数据文件路径“/test_data_path”,用户userA对该目录创建外表tableA,用户userB对该目录创建外表tableB,当userB对tableB执行insert操作后,userA将查询tableA失败,出现Permission
TezUI HiveQueries界面表格数据为空 问题 登录Manager界面,跳转Tez WebUI界面,已经提交的任务,Hive Queries界面未展示数据,如何解决。 回答 Tez WebUI展示的Hive Queries任务数据,需要设置以下3个参数: 在FusionInsight
是无法识别到压缩方式导致错误,看文件后缀是gzip压缩,堆栈却报出是zlib方式。 因此怀疑此语句查询的表对应的HDFS上的文件有问题,Map日志中打印出了解析的对应的文件名,将其从HDFS上下载到本地,看到是gz结尾的文件,使用tar命令解压报错,格式不正确无法解压。使用fil
TezUI HiveQueries界面表格数据为空 问题 登录Manager界面,跳转Tez WebUI界面,已经提交的任务,Hive Queries界面未展示数据,如何解决。 回答 Tez WebUI展示的Hive Queries任务数据,需要设置以下3个参数: 在FusionInsight
“目的连接”选择已创建的HDFS连接。 在“自”填写源连接参数。 在“桶名”填写业务数据所保存的OBS文件系统名称。 在“源目录或文件”填写业务数据在文件系统的具体位置。 如果是单个文件,需要填写包含文件名的完整路径。如果是目录,填写目录的完整路径 “文件格式”填写业务数据文件的类型。
所有参与分区间并发写入的任务,都必须配置上述参数。 不建议同分区内并发写,这种并发写入需要开启Hudi OCC方式并发写入,必须严格遵守并发参数配置,否则会出现表数据损坏的问题。 并发OCC参数控制: SQL方式: --开启OCC。 set hoodie.write.concurrency.mode=
API访问服务端进行Hive的相关操作。 HQL语言 Hive Query Language,类SQL语句。 HCatalog HCatalog是建立在Hive元数据之上的一个表信息管理层,吸收了Hive的DDL命令。为MapReduce提供读写接口,提供Hive命令行接口来进行数据定义和元数据查询。基于MRS的HC
、7、8个收费站)且数量大于同行车要求的数量则这两辆车是同行车。 实现1逻辑的缺点 : 逻辑复杂 实现过程中shuffle操作过多,对性能影响较大。 图2 实现2逻辑 实现2的逻辑说明 : 根据车牌号聚合该车通过的所有收费站并排序,处理后数据如下: 车牌号1,[(通过时间,收费站
、7、8个收费站)且数量大于同行车要求的数量则这两辆车是同行车。 实现1逻辑的缺点 : 逻辑复杂 实现过程中shuffle操作过多,对性能影响较大。 图2 实现2逻辑 实现2的逻辑说明 : 根据车牌号聚合该车通过的所有收费站并排序,处理后数据如下: 车牌号1,[(通过时间,收费站
savepoint的rollback与commit rollback相同,都必须从最新的instant逐个向前rollback。 MRS 3.1.2版本:MoR表暂时不支持savepoint。 父主题: Hudi数据管理维护
例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
echo "${files[*]}") 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令如下(类名与文件名等请与实际代码保持一致,此处仅为示例): bin/spark-submit --master yarn --deploy-mode client
fromArgs(args); final String hostName = paraTool.get("hostName"); // 修改hosts文件,使用主机名 final String keytab = paraTool.get("keytab");
ontainer自动清理该目录,因此yarn-cluster模式不存在此问题。 解决措施 可在Linux下设置/tmp临时目录自动清理,或修改客户端中spark-defaults.conf配置文件的spark.local.dir配置项的值,将临时目录指定到特定的目录,再对该目录单独设置清理机制。
pt次数(MapReduce默认4次)而失败。 规避手段: 在“客户端安装路径/Yarn/config/yarn-site.xml”文件中修改“yarn.resourcemanager.am-scheduling.node-blacklisting-disable-thresho
Consumer$ConsumerThread.run(Consumer.java:40) 可能原因 客户端和服务端Jar版本不一致。 解决办法 修改Consumer应用程序中Kafka jar,确保和服务端保持一致。 父主题: 使用Kafka