检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
keytab、krb5.conf为示例,实际操作时请联系管理员获取相应权限的账号以及对应该账号的keytab文件和krb5文件。 用户可登录FusionInsight Manager,单击“系统 > 权限 > 域和互信”,查看“本端域”参数,即为当前系统域名。 “zookeeper/hadoop
Topic输入的字节流量”,统计出“Topic输入的字节流量”值最大的Topic。查看该Topic有哪些Partition以及这些Partition所在的主机信息。 登录到5查询到的主机,执行iostat -d -x命令查看每个磁盘的最后一个指标“%util”: 各个磁盘的“%util”指标都超出阈值(默认
升级中,即使NodeManager已经升级,应用程序仍然可以运行旧版本的Hadoop。 配置描述 进入HDFS客户端。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装路径 执行以下命令配置环境变量。 source bigdata_env
中添加认证信息。在JDBC的URL中增添了user.keytab和user.principal这两个参数。当票据过期时,会自动读入客户端的登录信息,就可以重新获得连接。 用户不希望通过kinit命令进行票据认证,因为票据信息每隔24小时会过期。其中Keytab文件及princip
3.x及后续版本。 前提条件 已安装并配置Loader客户端,具体操作请参见使用命令行运行Loader作业。 操作步骤 使用安装客户端的用户登录客户端所在节点。 执行以下命令,进入Loader客户端的loader-tool工具目录。例如,Loader客户端安装目录为“/opt/client/Loader/”。
/default/rackb3: 包含物理机架Rb3的18台主机,Rb4的3台主机。 机架划分示例如下: 图1 机架划分 设置集群节点机架信息 登录FusionInsight Manager。 单击“主机”。 勾选待操作主机前的复选框。 在“更多”选择“设置机架”。 机架名称需遵循实际
--master=local[4] --driver-memory=512M -f /tpch.sql 在执行SQL语句前,请使用MRS集群管理员用户修改内存大小配置。 登录FusionInsight Manager,选择“集群 > 服务 > Spark2x > 配置”。 单击“全部配置”,并搜索“SPARK_DRIVER_MEMORY”。
jar),如果没有请参考Sqoop1.4.7适配MRS 3.x集群章节中的步骤3下载对应mysql包。 sqoop export(HDFS到MySQL) 登录客户端所在节点。 执行如下命令初始化环境变量。 source /opt/client/bigdata_env 使用sqoop命令操作sqoop客户端。
在Windows中调测Hive JDBC应用 JDBC客户端的命令行形式运行 运行样例。 依照准备Hive JDBC开发环境中导入和修改样例后,并从集群的任一Master节点的路径“/opt/client/Hive/config/hiveclient.properties”下获取“hiveclient
升级中,即使NodeManager已经升级,应用程序仍然可以运行旧版本的Hadoop。 配置描述 进入HDFS客户端。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装路径 执行以下命令配置环境变量。 source bigdata_env
服务 > Flink > 实例”,查看并记录“FlinkServer (主)”和“FlinkServer (备)”的业务IP。 以root用户登录主FlinkServer节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行以下命令检查备FlinkServer节点是否可达。 ping
集群中每个DataNode实例平均保存的Blocks= HDFS Block * 3 ÷ DataNode节点数。 HDFS Block:可以登录FusionInsight Manager,选择“集群 > 服务 > HDFS”,单击“NameNode Web UI”后的“NameNo
r所在节点只具有内网IP,外部服务通过网闸机映射访问内网。 ZooKeeper服务正常。 Kafka实例状态和磁盘状态均正常。 操作步骤 登录FusionInsight Manager界面。 选择“集群 > 服务 > Kafka > 实例 > Broker > 实例配置 > 全部配置”。在搜索框输入“broker
已安装Ranger服务且服务运行正常。 已创建用户需要配置权限的用户、用户组或Role。 操作步骤 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击“KAFKA”区域的组件插件名称如“Kafka”。 单击“Add New
java-5.1.47.jar),并已修改权限和用户组与该目录下其他Jar包保持一致。 sqoop export(HDFS到MySQL) 登录Sqoop客户端所在节点。 执行如下命令初始化环境变量。 source /opt/client/bigdata_env 如果当前集群已启用
1:/opt/ 登录客户端所在节点。 例如: ssh 127.0.0.1 执行命令创建补丁目录并解压补丁包: mkdir /opt/{补丁版本号} tar -zxf /opt/patch.tar.gz -C /opt/{补丁版本号} 补丁升级/回退 执行客户端补丁升级: 登录客户端所在节点
主集群的HBase表已启用容灾功能同步数据,用户每次修改表的结构时,需要手动修改备集群的灾备表结构,保持与主集群表结构一致。 操作步骤 配置主集群普通写数据容灾参数。 登录主集群的Manager。 选择“集群 > 待操作集群的名称 > 服务 > HBase > 配置”,单击“全部配置”,进入HBase配置界面。
jar包文件名 chmod 600 jar包文件名 登录FusionInsight Manager系统,选择“集群 > 服务 > Loader > 更多 > 重启服务”输入管理员密码重启Loader服务。 登录“Loader WebUI”界面。 登录FusionInsight Manager
chmod 600 jar包文件名 登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Loader > 更多 > 重启服务”输入管理员密码重启Loader服务。 登录“Loader WebUI”界面。 登录FusionInsight M
hive_hbase_create”和“hive_hbase_submit”,用于创建SparkSQL表和HBase表。 以客户端安装用户登录安装客户端的节点。 执行以下命令,配置环境变量。 source /opt/client/bigdata_env source /opt/c