检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
keytab、krb5.conf)。user.keytab和krb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA
操作Hive中所有的数据库和表。 需加入到supergroup用户组,并且授予“Hive管理员权限”。 集群未启用Kerberos认证(普通模式)开启Ranger鉴权 集群未启用Kerberos认证(普通模式)默认关闭Ranger鉴权,如果启用Ranger鉴权,新增以下限制: 白名单限制:未配置的参数将
多主实例模式 多主实例模式的客户端读取ZooKeeper节点中的内容,连接对应的JDBCServer服务。连接字符串为: 安全模式下: Kinit认证方式下的JDBCURL如下所示: jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>,<zkNode2_IP>:<zkNode2_Port>
多租户模式 多租户模式的客户端读取ZooKeeper节点中的内容,连接对应的ProxyServer服务。连接字符串为: 安全模式下: Kinit认证方式下的客户端URL如下所示: jdbc:hive2://<zkNode1_IP>:<zkNode1_Port>,<zkNode2_IP>:<zkNode2_Port>
因此,不支持用户对HDFS上的HBase目录进行quota值设置。上述问题可通过下述步骤解决: 在客户端命令提示符下运行kinit 用户名命令,使HBase用户获得安全认证。 运行hdfs dfs -count -q/hbase/data/<namespace>/<tableName>命令检查分配的磁盘空间quota。
因此,不支持用户对HDFS上的HBase目录进行quota值设置。上述问题可通过下述步骤解决: 在客户端命令提示符下运行kinit 用户名命令,使HBase用户获得安全认证。 运行hdfs dfs -count -q/hbase/data/<namespace>/<tableName>命令检查分配的磁盘空间quota。
client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令,切换到Kafka客户端安装目录。 cd Kafka/kafka/bin
单击“配置”,检查Hue配置项“HUE_FLOAT_IP”和“HTTP_PORT”是否正确。 是,执行4。 否,修改正确的Hue服务浮动IP地址与端口。 在业务网络执行telnet HUE节点IP HTTP_PORT或者telnet HUE_FLOAT_IP HTTP_PORT,检查端口是否对外开放。
r/ActiveStandbyElectorLock。但是NameNode备节点通过客户端(ZKFC)与ZooKeeper建立连接时,由于网络问题、CPU使用率高、集群压力大等原因,出现了客户端(ZKFC)的session(0x144cb2b3e4b36ae4)与ZooKeepe
此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 节点互信异常处理方法如下: 本操作需使用omm用户执行。 如果节点间网络不通,请先解决网络不通的问题,可以检查两个节点是否在同一个安全组,是否有设置hosts.deny、hosts.allow 等。 在两端节点执行ssh-add
置,确保用户名密码正确,及远端主机的安全组已增加SSH(22)端口的入方向规则。然后从2执行重新开始下载客户端。 连接到服务器失败,请检查网络连接或参数设置。 生成客户端会占用大量的磁盘IO,不建议在集群处于安装中、启动中、打补丁中等非稳态场景下载客户端。 父主题: HDFS应用开发常见问题
keytab、krb5.conf)。user.keytab和krb5.conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA
principal=impala/hadoop.hadoop.com;user.keytab=conf/impala.keytab"; 以上已经经过安全认证,所以用户名和密码为null或者空。 // 建立连接 connection = DriverManager.getConnection(url
统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env命令设置环境变量。 如果集群采用安全版本,要进行安全认证。 执行kinit hdfs命令,按提示输入密码(向MRS集群管理员获取密码)。 执行如下命令,检查发出告警的目录下的文件或目录是否是可以删除的无用文件。
cd 客户端安装目录 然后执行以下命令设置环境变量: source bigdata_env 如果集群采用安全版本,要执行以下命令进行安全认证: kinit hbase 按提示输入密码(向MRS集群管理员获取密码)。 执行hbase zkcli命令进入ZooKeeper客户端,然后执行命令listquota
cd 客户端安装目录 然后执行以下命令设置环境变量: source bigdata_env 如果集群采用安全版本,要执行以下命令进行安全认证: kinit hbase 按提示输入密码(向MRS集群管理员获取密码)。 执行hbase zkcli命令进入ZooKeeper客户端,然后执行命令listquota
cd 客户端安装目录 然后执行以下命令设置环境变量: source bigdata_env 如果集群采用安全版本,要执行以下命令进行安全认证: kinit hbase 按提示输入密码(hbase用户初始密码可查看用户账户一览表获取)。 执行hbase zkcli命令进入ZooK
节点,并执行以下命令: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(若集群未启用Kerberos认证(普通模式),请跳过该操作) 查看损坏的StoreFile文件。 执行以下命令检查HDFS的“/hbase/autocorrupt”目录是否为空,不为空则执行4。
site.xml。 Map输出与压缩 mapreduce.map.output.compress 参数解释:指定了Map任务输出结果可以在网络传输前被压缩。这是一个per-job的配置。 默认值:true 参数入口:需要在客户端进行配置,配置文件路径:客户端安装目录/HDFS/h
quorum=spark25:2181,spark 26:2181,spark27:2181 设置客户端与ThriftServer连接的超时时间。 Beeline 在网络拥塞的情况下,这个特性可以避免beeline由于无限等待服务端的返回而挂起。使用方式如下: 启动beeline时,在后面追加“--sock