检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SparkRExample 安装SparkR R SparkOnHudiJavaExample 使用Spark执行Hudi基本操作 Java SparkOnHudiPythonExample 使用Spark执行Hudi基本操作 Python SparkOnHudiScalaExample 使用Spark执行Hudi基本操作
管理FlinkServer作业 查看FlinkServer作业健康状况 导入导出FlinkServer作业信息 配置FlinkServer作业运行残留信息自动清理 配置FlinkServer作业重启策略 配置FlinkServer作业中添加第三方依赖jar 配置FlinkServer作业中使用UDF
INSERT SELECT语句调优 动态分区插入场景内存优化 小文件优化 聚合算法优化 Datasource表优化 合并CBO优化 多级嵌套子查询以及混合Join的SQL调优 父主题: 使用Spark2x(MRS 3.x及之后版本)
和metadata,按分区存储。 Hudi的数据文件使用Parquet文件格式的base file和Avro格式的log file存储。 查看Hudi表:登录FusionInsight Manager页面,选择“集群 > 服务 > HDFS”,在“概览”页面单击NameNode
0%)。 查看本告警是否恢复。 是,操作结束。 否,执行6。 升级Coordinator规格或扩容Worker节点组。 若Coordinator线程数过多,考虑升级Coordinator节点规格,提升CPU核数;若Worker线程数过多,考虑扩容Worker节点组 查看本告警是否恢复。
%)。 查看本告警是否恢复。 是,操作结束。 否,执行6。 升级Coordinator规格或扩容Worker节点组。 若Coordinator线程数过多,考虑升级Coordinator节点规格,提升CPU核数;若Worker线程数过多,考虑扩容Worker节点组。 查看本告警是否恢复。
> 服务 > Oozie > 实例”查看。 “21003”为Oozie HTTPS请求的运行端口,可在FusionInsight Manager,选择“集群 > 服务 > Oozie > 配置”,搜索“OOZIE_HTTPS_PORT”查看。 查看检查结果。包括以下几种情况: Share
使用Get读取HBase数据 使用Scan读取HBase数据 使用HBase过滤器Filter 添加HBase二级索引 启用/禁用HBase二级索引 查询HBase二级索引列表 使用HBase二级索引读取数据 删除HBase二级索引 HBase Region的多点分割 HBase ACL安全配置
操作场景 并行度控制任务的数量,影响shuffle操作后数据被切分成的块数。调整并行度让任务的数量和每个任务处理的数据与机器的处理能力达到合适。 查看CPU使用情况和内存占用情况,当任务和数据不是平均分布在各节点,而是集中在个别节点时,可以增大并行度使任务和数据更均匀的分布在各个节点。增
Supervisor”,进入Storm服务管理页面。 查看“角色”中是否存在状态为故障或者是正在恢复的Supervisor实例。 是,执行3。 否,执行5。 勾选状态为故障或者正在恢复的Supervisor角色实例,选择“更多 > 重启实例”,查看是否重启成功。 是,执行4。 否,执行5。 等待30秒,检查该告警是否恢复。
"obs://testhudi/cow_table/"是OBS路径,testhudi是并行文件系统名称,请根据实际情况修改。 使用datasource查看表建立成功,数据正常。 val roViewDF = spark. read. format("org.apache.hudi"). load(basePath
使用HetuEngine HetuEngine交互查询引擎概述 HetuEngine用户权限管理 快速使用HetuEngine访问Hive数据源 创建HetuEngine计算实例 添加HetuEngine数据源 配置HetuEngine物化视图 配置HetuEngine SQL诊断功能
Supervisor”,进入Storm服务管理页面。 查看“角色”中是否存在状态为故障或者是正在恢复的Supervisor实例。 是,执行1.d。 否,执行2.a或者3.a。 勾选状态为“故障”或者“正在恢复”的Supervisor角色实例,选择“更多 > 重启实例”,查看是否重启成功。 是,执行1.e。
视图: 将视图v分别赋给用户hiveuser1、hiveuser2,当hiveuser1查询视图v时,“current_user()”被自动转化为hiveuser1,当hiveuser2查询视图v时,“current_user()”被自动转化为hiveuser2: create view
28443 |grep LISTEN查询tomcat的进程号。 执行kill -9 {pid},其中{pid}为上一步中查询到的进程号。 等待进程自动重启,可以执行netstat -anp |grep 28443 |grep LISTEN查看进程是否启动,如果可以查到结果说明进程启动成功。
UI五种方式,可参考HDFS常用API介绍、HDFS Shell命令介绍。 JAVA API 提供HDFS文件系统的应用接口,本开发指南主要介绍如何使用Java API进行HDFS文件系统的应用开发。 C API 提供HDFS文件系统的应用接口,使用C语言开发的用户可参考C接口的描述进行应用开发。
API、WEB UI五种方式,可参考常用API介绍、HDFS Shell命令介绍。 JAVA API 提供HDFS文件系统的应用接口,本开发指南主要介绍如何使用Java API进行HDFS文件系统的应用开发。 C API 提供HDFS文件系统的应用接口,使用C语言开发的用户可参考C接口的描述进行应用开发。
UI五种方式,可参考HDFS常用API介绍、HDFS Shell命令介绍。 JAVA API 提供HDFS文件系统的应用接口,本开发指南主要介绍如何使用Java API进行HDFS文件系统的应用开发。 C API 提供HDFS文件系统的应用接口,使用C语言开发的用户可参考C接口的描述进行应用开发。
迁移任务执行过程中,可单击“取消”取消正在执行的迁移任务,若取消任务,则会回退掉迁入节点上已迁移的数据。 可以单击“更多 > 详情”查看迁移过程中的日志信息。 迁移完成后,选择“更多 > 结果”查看迁移结果;选择“更多 > 删除”清理ZooKeeper以及迁出节点上该迁移任务相关的目录。 父主题: ClickHouse运维管理
from_table1(a int,b string); create table in_table1(a int,b string); --查询表名以"show"开始的表的详细信息 show table extended like 'show*';