检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Spark功能。 可能原因 Tez或者Spark在HDFS上库路径被删除。 处理步骤 检查Tez和Spark库路径。 以root用户登录客户端所在节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行以下命令,检查“hdfs://hacluster/user/{用户名}/.Trash/Current/
log-aggregator.on-fail.remain-log-in-sec 设置Container日志归集失败后日志在本地保留的时间。单位:秒。 设置为0时,本地日志将马上删除。 设置为正数时,表示本地日志将保留这段时间。 604800 参考修改集群服务配置参数进入Mapreduce服务参数“全部配
cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。 kinit developuser 执行以下命令在HDFS创建目录并上传样例工程到该目录。 hdfs dfs -mkdir /user/developuser
cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户并登录。首次登录需要修改密码。 kinit developuser 执行以下命令在HDFS创建目录并上传样例工程到该目录。 hdfs dfs -mkdir /user/developuser
/opt/hadoopclient sh autoRefreshConfig.sh 按照提示输入FusionInsight Manager管理员用户名,密码以及FusionInsight Manager界面浮动IP。 输入需要更新配置的组件名,组件名之间使用“,”分隔。如需更新所有组件配置,可直接单击回车键。
检查Flume Client与Flume Server的网络状况。 以root用户登录到告警定位参数中描述的Flume ClientIP所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行ping Flume Server IP地址命令,检查Flume Client到Flume Server的网络是否正常。
ou=People,dc=huawei,dc=com - - --ldap_passwords_in_clear_ok 如果设置为true,将允许ldap密码在网络上明文发送(不含TLS/SSL)。 false true或false --ldap_uri-ip ldap ip - - --ldap_uri-port
dfs-customize”中添加4.b获取的参数值,如下图所示: 保存并重启ClickHouse服务。 以客户端安装用户,登录客户端所在节点。 执行以下命令切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执
error is ssh:connect to host 172.16.4.200 port 22 : Connection refused (172.16.4.200是DBService的浮动IP) DBService backup failed. 解决办法 登录DBServic
Manager系统的监控指标。 可能原因 无法连接服务器。 无法访问服务器上保存路径。 上传监控指标文件失败。 处理步骤 查看服务器连接是否正常。 查看FusionInsight Manager系统与服务器网络连接是否正常。 是,执行3。 否,执行2。 联系网络管理员恢复网络连接,然后检查告警是否恢复。
HDFS客户端写文件close失败 问题背景与现象 HDFS客户端写文件close失败,客户端提示数据块没有足够副本数。 客户端日志: 2015-05-27 19:00:52.811 [pool-2-thread-3] ERROR: /tsp/nedata/collect/UGW
解决办法 使用skipTrash命令可以跳过HDFS回收站,直接删除。使用前先设置HDFS客户端配置项“dfs.client.skipTrash.enabled=true”。 以root用户登录集群任一Master节点。 执行如下命令编辑HDFS用到的“hdfs-site.xml”文件。
Client:第三方ZooKeeper使用该配置进行访问连接,具体连接认证配置由第三方ZooKeeper版本决定。 [7] password:密码明文存储存在安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 父主题: 配置HBase应用安全认证
登录到FusionInsight Manager页面,选择“集群 > 服务 > Kafka > 实例”,勾选所有Broker实例,选择“更多 > 停止实例”验证管理员密码后停止所有Broker实例。 (该操作对业务有影响,请在业务低峰期操作) 以root用户分别登录到Broker节点后台,修改“server
LUGIN=1 mysql -u数据库登录用户 -p -PFE查询连接端口 -hDoris FE实例IP地址 执行命令后输入数据库登录用户密码。 Doris FE的查询连接端口,可以通过登录Manager,单击“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。
际安装目录修改。 各组件业务用户由MRS集群管理员根据业务需要创建。 “机机”用户需要下载keytab文件,“人机”用户第一次登录时需修改密码。 非root用户使用HBase客户端,请确保该HBase客户端目录的属主为该用户,否则请参考如下命令修改属主。 chown user:group
erberos及相关组件。 获取的用户需要属于storm组。 默认情况下,用户的密码有效期是90天,所以获取的keytab文件的有效期是90天。如果需要延长该用户keytab的有效期,请修改用户的密码策略并重新获取keytab。 Kerberos服务的renewable、forw
#设置kinit认证 Password for hdfs@HADOOP.COM: #输入hdfs用户登录密码 执行hdfs fsck / -list-corruptfileblocks,检查返回结果。 如果结果为“...has 0 CORRUPT
通过“集群 > 服务 > Flink > 实例”查看FlinkServer两个实例的业务IP。 以root用户登录异常FlinkServer实例所在的服务器,用户密码为安装前用户自定义,请咨询系统管理员。 执行以下命令检查另一个FlinkServer实例的服务器是否可达。 ping
以omm用户登录故障RegionServer节点。 进入客户端安装目录,设置环境变量。 cd 客户端安装目录 source bigdata_env 如果集群采用安全版本,要进行安全认证。执行kinit hbase命令,按提示输入密码(向MRS集群管理员获取密码)。 执行以下命令查看目前负载均衡功能是否打开。