检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
执行hbase zkcli命令进入ZooKeeper命令行。 在ZooKeeper命令行中执行ls /hbase/table,查看新建的表名是否存在。 是,结束。 否,执行ls /hbase/table-lock查看新建的表名是否存在,如果存在新建的表名时使用delete命令(delete
UPDATE 命令功能 UPDATE命令根据列表达式和可选的过滤条件更新Hudi表。 命令格式 UPDATE tableIdentifier SET column = EXPRESSION(,column = EXPRESSION) [ WHERE boolExpression]
是,处理完毕。 否,执行10。 检查操作系统执行命令是否卡顿。 用root用户登录故障节点,执行命令id admin,观察命令返回结果时长,观察执行命令是否缓慢(超过3s即可认为执行命令慢)。 是,执行11。 否,执行13。 执行命令cat /var/log/messages,查看sssd是否频繁重启或者存在Can't
usionInsight-Spark-*/spark/examples/jars命令, 查看样例程序的jar包。 jar包名最多为1023字符,不能包含;|&>,<'$特殊字符,且不可为空或全空格。 执行程序可存储于HDFS或者OBS中,不同的文件系统对应的路径存在差异。 OBS
如何查看HBase日志? 使用root用户登录集群的Master节点。 执行su - omm命令,切换到omm用户。 执行cd /var/log/Bigdata/hbase/命令,进入到“/var/log/Bigdata/hbase/”目录,即可查看HBase日志信息。 父主题:
通过telnet命令,查看是否可以连接Kafka。 telnet Kafka业务IP Kafka业务port 如果无法telnet成功,请检查网络安全组与ACL。 通过SSH登录Kafka Broker。 通过cd /var/log/Bigdata/kafka/broker命令进入日志目录。
所在节点的“hosts”文件中,确保本地机器能与解压目录下“hosts”文件中所列出的各主机在网络上互通。 当客户端所在主机不是集群中的节点时,配置客户端网络连接,可避免执行客户端命令时出现错误。 Windows本地hosts文件存放路径举例:“C:\WINDOWS\system
是,处理完毕。 否,执行12。 检查操作系统执行命令是否卡顿。 用root用户登录故障节点,执行命令id admin,观察命令返回结果时长,观察执行命令是否缓慢(超过3s即可认为执行命令慢)。 是,执行13。 否,执行15。 执行命令cat /var/log/messages,查看nscd是否频繁重启或者存在Can't
DROP SECONDARY INDEX 命令功能 该命令用于删除给定表中存在的二级索引表。 命令格式 DROP INDEX [IF EXISTS] index_name ON [db_name.]table_name; 参数描述 表1 DROP SECONDARY INDEX参数
在beeline客户端创建UDF时报错 问题现象 执行命令: create function fn_test3 as 'test.MyUDF' using jar 'hdfs:///tmp/udf2/MyUDF.jar' 报以下错误: Error: Error while compiling
在MRS集群外节点上安装了客户端后并执行kinit命令报错如下: -bash kinit Permission denied 执行java命令也报错如下: -bash: /xxx/java: Permission denied 执行ll /java安装路径/JDK/jdk/bin/java命令查看该文件执行权限信息正常。
ry.java:799) ... 原因分析 用户使用 useradd 命令来创建用户,此用户默认用户组不包含“ficommmon”用户组,导致在使用hdfs的get命令的时候出现上述报错。 处理步骤 使用命令usermod -a -G ficommon username 为用户添加用户组“ficommon”。
的指定目录。 勾选“仅保存到如下路径” 复制客户端软件包到待安装客户端节点的指定目录。 客户端软件包生成后默认保存在集群主OMS节点,若需要在集群内其他节点上安装客户端,需以omm用户登录主OMS节点,执行以下命令复制软件包到指定节点,否则跳过本步骤。 例如复制到“/tmp/clienttemp”目录:
修改CarbonData Table SET和UNSET 当使用set命令时,所有新set的属性将会覆盖已存在的旧的属性。 SORT SCOPE SET SORT SCOPE命令示例: ALTER TABLE tablename SET TBLPROPERTIES('SORT_SCOPE'='no_sort')
found异常。 回答 当前版本的Spark内核直接依赖于Kafka相关的jar包(结构流使用),因此提交结构流任务时,需要把Kafka相关jar包加入到结构流任务driver端的库目录下,确保driver能够正常加载kafka包。 解决方案 提交yarn-client模式的结构流任务时需要额外如下操作:
found异常。 回答 当前版本的Spark内核直接依赖于kafka相关的jar包(结构流使用),因此提交结构流任务时,需要把Kafka相关jar包加入到结构流任务driver端的库目录下,确保driver能够正常加载kafka包。 解决方案 提交yarn-client模式的结构流任务时需要额外如下操作:
请咨询系统管理员。 执行ping 备DBService心跳IP地址命令检查备DBService节点是否可达。 是,执行6。 否,执行4。 联系网络管理员查看是否为网络故障。 是,执行5。 否,执行6。 修复网络故障,查看告警列表中,该告警是否已清除。 是,处理完毕。 否,执行6。
DROP SECONDARY INDEX 命令功能 该命令用于删除给定表中存在的二级索引表。 命令格式 DROP INDEX [IF EXISTS] index_name ON [db_name.]table_name; 参数描述 表1 DROP SECONDARY INDEX参数
以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source bigdata_env 根据集群认证模式,完成Hive客户端登录。 安全模式,则执行以下命令,完成用户认证并登录Hive客户端。 kinit
集群已开启Kerberos认证(安全模式),执行如下命令: beeline 如果用户绑定了Hive管理员角色,在每个beeline的维护操作会话中,都需要执行以下命令切换成admin角色再执行后续操作: set role admin; 集群未开启Kerberos认证(普通模式),执行如下命令: beeline -n