检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
rity. 原因分析 用户使用的JDK中的jar包与MRS服务认证的jar包版本不一致。 处理步骤 以root用户登录集群Master1节点。 执行如下命令,查看MRS服务认证的jar包。 ll /opt/share/local_policy/local_policy.jar ll
如果不是上述原因,则请参考提交Storm拓扑失败,提示Failed to check principle for keytab。 解决办法 认证异常。 登录客户端节点,进入客户端目录。 执行以下命令重新提交任务。(业务jar包和Topology根据实际情况替换) source bigdata_env kinit
数据迁移工具是基于表的分区作数据迁移,在创建表时如果不携带PARTITION BY创建表分区,则在集群内ClickHouseServer节点间数据迁移界面无法对该表进行数据迁移。 方法二:创建一个与database_name2.table_name2具有相同结构的表,同时可以对其指定不同的表引擎声明。
1/hadoop-mapreduce-client/hadoop-mapreduce-client-hs/HistoryServerRest.html 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source
该连接信息就会JDBC连接异常。 处理步骤 检查ZooKeeper下面是否有目标目录和注册的信息 以root用户登录任意一个Master节点并初始化环境变量。 source /opt/client/bigdata_env 执行zkCli.sh -server 'ZooKeeper
log发现如下日志抛出java.io.IOException: Too many open files in system。 图3 日志异常 通过lsof命令查看当前节点Kafka进程句柄使用情况,发现占用的句柄数达到了47万。 图4 句柄数 排查业务代码,不停地创建新的Producer对象,未正常关闭。 解决办法
创建表时设置data block encoding和压缩算法。 方法一:使用hbase shell。 以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前
配置HBase数据压缩格式和编码 创建时设置data block encoding和压缩算法。 方法一:使用hbase shell。 以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前
hive用户组,主组为hadoop。 操作步骤 下载并安装Hudi客户端,具体请参考安装MRS客户端章节。 使用客户端安装用户登录客户端节点,执行如下命令进入客户端目录。 cd /opt/hadoopclient 执行以下命令加载环境变量。 source bigdata_env source
“转包周期中”。 订单支付成功后,集群开始进行转包周期流程,待集群转包周期成功后,集群状态更新为“运行中”。 转包周期后集群原有Task节点计费类型保持按需计费,集群在转包周期过程中已配置的弹性伸缩规则不触发新任务,请选择恰当的时间进行该操作。 父主题: 变更计费模式
nsert操作,只允许select操作。 设置表只读模式 安装客户端,具体请参考安装MRS客户端章节。 使用root用户登录安装客户端的节点,执行以下命令: cd 客户端安装目录 source bigdata_env 如果当前集群为安全模式(开启Kerberos认证),执行以下命
据迁移工具是基于表的分区进行数据迁移,在创建表时如果不携带PARTITION BY创建表分区,则在集群内ClickHouseServer节点间数据迁移界面无法对该表进行数据迁移。 方法二:创建一个与database_name2.table_name2具有相同结构的表,同时可以对其指定不同的表引擎声明。
使用Kafka Shell命令无法操作Kafka集群 Kafka生产者写入单条记录过长问题 Kakfa消费者读取单条记录过长问题 Kafka集群节点内多磁盘数据量占用高 Kafka连接ZooKeeper客户端时发生断链
概述”的“Storm Web UI”,单击任意一个UI链接,打开Storm的WebUI。 第一次访问Storm WebUI,需要在浏览器中添加站点信任以继续打开页面。 MRS 3.x及后续版本:选择“Storm > 概览”,在“基本信息”的“Storm Web UI”,单击任意一个UI链接,打开Storm的WebUI。
时指定可使用的最大资源,并且通过配置的方式指定用户的资源配额,从而管理该用户名下的拓扑资源。 State Management:提供带检查点机制的Bolt接口,当事件失败时,Storm会自动管理bolt的状态并且执行恢复。 消息采样和调试:在Storm UI界面可以开关拓扑或者组
限制服务使用的资源总量,支持配置Flume、HBase、HDFS、IoTDB、Kafka(Kafka组件仅MRS 3.2.0及之后版本支持静态服务池)和Yarn在部署节点可使用的CPU、I/O和内存总量。 实现服务级别的资源隔离,可将集群中的服务与其他服务隔离,使一个服务上的负载对其他服务产生的影响有限。 调度机制简介
登录HDFS的WebUI页面,进入DataNode的JMX页面。 在HDFS原生界面,选择Datanodes页面。 找到对应的DataNode节点,单击Http Address地址进入DataNode详情。 将url的“datanode.html”改为“jmx”就能获取到DataNode的JMX信息。
krbtgt/HADOOP.COM@HADOOP.COM, Decrypt integrity check failed 解决办法 进入集群外的节点(如原因分析示例中的192.168.1.93),断开其对Kafka的认证。等待5分钟,此账号就会被解锁。 父主题: 使用Kafka
使用FlinkSQL Client提交作业 安装集群客户端,例如安装目录为“/opt/hadoopclient”。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行如下命令初始化环境变量。 source /opt/h
org/docs/r3.1.1/hadoop-yarn/hadoop-yarn-site/WebServicesIntro.html 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source