检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
--enable-hive-sync // 开启hive同步,同步hudi表到hive --continuous // 指定流处理模式为连续模式 HoodieMultiTableDeltaStreamer流式写入 HoodieMultiTableDeltaStreamer流式写入仅适用于MRS
管理Loader连接(MRS 3.x及之后版本) 操作场景 Loader页面支持创建、查看、编辑和删除连接。 本章节适用于MRS 3.x及之后版本。 创建连接 登录服务页面: MRS 3.x及后续版本,登录FusionInsight Manager,具体请参见访问FusionInsight
/opt/client”。 cd /opt/client 如果集群为普通模式,需先执行su - omm切换为omm用户。 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令认证hdfs身份。 kinit hdfs 是否调整带宽控制?
/opt/client”。 cd /opt/client 如果集群为普通模式,需先执行su - omm切换为omm用户。 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命令认证hdfs身份。 kinit hdfs 是否调整带宽控制?
以root用户登录客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行如下命令: cd 客户端安装目录 source bigdata_env 如为安全模式集群,请执行kinit hbase 登录HMaster WebUI,在导航栏选择“Procedure & Locks”,在Procedur
-XX:+PrintGCDetails -Dsun.rmi.dgc.client.gcInterval=0x7FFFFFFFFFFFFFE -Dsun.rmi.dgc.server.gcInterval=0x7FFFFFFFFFFFFFE -XX:-OmitStackTraceInFastThrow
-XX:+PrintGCDetails -Dsun.rmi.dgc.client.gcInterval=0x7FFFFFFFFFFFFFE -Dsun.rmi.dgc.server.gcInterval=0x7FFFFFFFFFFFFFE -XX:-OmitStackTraceInFastThrow
b文件在应用程序中进行认证。 在集群开启Kerberos认证环境下,样例代码需要使用的认证方式如表1所示: 表1 安全认证方式 样例代码 模式 安全认证方式 spark-examples-normal yarn-client 命令认证、配置认证或代码认证,三种任选一种。 yarn-cluster
请确保客户端用户具备对应目录权限。 principal名。 security.kerberos.login.principal: abc222 对于HA模式,如果配置了ZooKeeper,还需要设置ZooKeeper Kerberos认证相关的配置。 zookeeper.sasl.disable:
/client”),并配置环境变量。 cd /opt/client source bigdata_env 执行以下命令进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh -server <任一ZooKeeper实例所在节点业务IP>:<clientPort>
k写hudi,则至少提交的checkpoint要超过这个阈值;如果是批写Hudi,则批写次数要超过这个阈值。 建议 MOR表下游采用批量读模式,采用clean的版本数为compaction版本数+1。 MOR表一定要保证Compaction Plan能够被成功执行,Compaction
点,peer配置备节点。 是,执行12。 否,执行10。 修改hacom_local.xml中主备节点的配置,修改完成后,按Esc回到命令模式,输入命令:wq保存退出。 查看此告警信息是否自动清除。 是,处理完毕。 否,执行12。 检查是否防火墙禁用端口。 执行命令lsof -i
压缩格式的数据。 目前MRS集群支持在线创建如下几种类型的作业: MapReduce:提供快速并行处理大量数据的能力,是一种分布式数据处理模式和执行环境,MRS支持提交MapReduce Jar程序。 Spark:基于内存进行计算的分布式计算框架,MRS支持提交SparkSubmit、Spark
tools。 例如:在RHEL-x86系统上需要安装如下RPM包(请根据实际情况选择版本) mysql-community-client-5.7.23-1.el7.x86_64.rpm mysql-community-common-5.7.23-1.el7.x86_64.rpm mys
读写权限。 spark2x/hadoop.<系统域名> 系统随机生成 Spark2x系统管理员用户,用户权限: 1、Spark2x服务启动用户 2、提交Spark2x任务的权限 spark_zk/hadoop.<系统域名> 系统随机生成 用于Spark2x访问ZooKeeper。
操作步骤说明。 前提条件 待迁移的源ClickHouse集群状态正常,并且源集群和目的集群必须同为安全集群或者同为普通集群。如果集群模式都为普通模式,请联运维人员。 已创建待迁移数据的ClickHouse目标集群,该集群版本为MRS 3.1.3及以上版本。该ClickHouse集
Hue是建立在Django Python(开放源代码的Web应用框架)的Web框架上的Web应用程序,采用了MTV(模型M-模板T-视图V)的软件设计模式。 Hue由“Supervisor Process”和“WebServer”构成,“Supervisor Process”是Hue的核心进
执行以下命令配置环境变量并认证用户。 source bigdata_env kinit 提交Oozie任务的用户( 如果集群未启用Kerberos认证(普通模式)请跳过该操作) 检查Share Lib,包括客户端和服务端两种方式。Spark Share Lib仅支持客户端检查。 客户端方式: 检查Oozie核心Share
解决调用MRS的作业管理接口API,返回的Spark日志的url和实际不一致的问题。 解决Spark JDBCServer切换成多实例模式后shuffle数据会不断累积,导致磁盘被打满的问题。 解决Spark InsertOverwrite数据不一致问题。 解决Superio
$exitCode") } 根据业务逻辑,开发对应的Spark应用程序,并设置用户编写的Spark应用程序的主类等常数。 如果您使用的是普通模式,准备业务应用代码及其相关配置即可。 调用org.apache.spark.launcher.SparkLauncher.launch()方法,将用户的应用程序提交。