检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
java-5.1.47.jar),并已修改权限和用户组与该目录下其他Jar包保持一致。 sqoop export(HDFS到MySQL) 登录Sqoop客户端所在节点。 执行如下命令初始化环境变量。 source /opt/client/bigdata_env 如果当前集群已启用
testFileAppend 写入“Welcome back to webhdfs!”保存退出。 在普通模式下,只支持使用HTTP服务访问。登录FusionInsight Manager页面,选择“集群 > 待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置”,在“搜索”框里搜索“dfs
确认上报告警的节点是否为虚拟化环境。 是,执行4。 否,执行7。 请检查虚拟化环境提供的存储性能是否满足硬件要求,检查完毕之后执行5。 以root用户登录告警节点,执行df -h命令,查看输出内容是否包含“磁盘名”字段的值,用户密码为安装前用户自定义,请咨询系统管理员。 是,执行7。 否,执行6。
已安装Ranger服务且服务运行正常。 已创建用户需要配置权限的用户、用户组或Role。 操作步骤 使用Ranger管理员用户rangeradmin登录Ranger管理页面,具体操作可参考登录Ranger WebUI界面。 在首页中单击“KAFKA”区域的组件插件名称如“Kafka”。 单击“Add New
在Windows中调测Hive JDBC应用 JDBC客户端的命令行形式运行 运行样例。 依照准备Hive JDBC开发环境中导入和修改样例后,并从集群的任一Master节点的路径“/opt/client/Hive/config/hiveclient.properties”下获取“hiveclient
升级中,即使NodeManager已经升级,应用程序仍然可以运行旧版本的Hadoop。 配置描述 进入HDFS客户端。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装路径 执行以下命令配置环境变量。 source bigdata_env
服务 > Flink > 实例”,查看并记录“FlinkServer (主)”和“FlinkServer (备)”的业务IP。 以root用户登录主FlinkServer节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行以下命令检查备FlinkServer节点是否可达。 ping
集群中每个DataNode实例平均保存的Blocks= HDFS Block * 3 ÷ DataNode节点数。 HDFS Block:可以登录FusionInsight Manager,选择“集群 > 服务 > HDFS”,单击“NameNode Web UI”后的“NameNo
r所在节点只具有内网IP,外部服务通过网闸机映射访问内网。 ZooKeeper服务正常。 Kafka实例状态和磁盘状态均正常。 操作步骤 登录FusionInsight Manager界面。 选择“集群 > 服务 > Kafka > 实例 > Broker > 实例配置 > 全部配置”。在搜索框输入“broker
1:/opt/ 登录客户端所在节点。 例如: ssh 127.0.0.1 执行命令创建补丁目录并解压补丁包: mkdir /opt/{补丁版本号} tar -zxf /opt/patch.tar.gz -C /opt/{补丁版本号} 补丁升级/回退 执行客户端补丁升级: 登录客户端所在节点
// 初始化环境变量。 Configuration conf = new Configuration(); // 安全登录。 LoginUtil.login(PRINCIPAL, KEYTAB, KRB, conf); // 获取入参。
单击“实例”,显示LoaderServer实例列表。 记录“LoaderServer(主)”行的“管理IP”。 以omm用户通过21获取的IP地址登录主LoaderServer所在的主机。 执行ping命令,查看主LoaderServer所在主机和依赖组件所在主机的网络连接是否正常。(依
中输入多个主机IP,进行批量搜索。 当列表中没有所需主机时,单击“安装ICAgent”,在弹出的页面安装指引完成主机安装。 创建日志组。 登录云日志服务管理控制台,在“日志管理”页面单击“创建日志组”。 在“创建日志组”页面中,输入日志组名称,名称需要满足如下要求: 只支持输入英
chmod 600 jar包文件名 登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Loader > 更多 > 重启服务”输入管理员密码重启Loader服务。 登录“Loader WebUI”界面。 登录FusionInsight M
行处理,每个task读取若干个shuffle输出文件,再对这部分任务的Join结果进行Union操作,以达到消除数据倾斜的效果 配置参数 登录FusionInsight Manager系统,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索以下参数。 参数
服务在重启过程中将不可用。另外,依赖该服务的上层服务也将受到影响。 检查本告警是否清除。 是,处理完毕。 否,执行6。 检查系统中是否有不需要的文件。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env命令设置环境变量。
实例”,重启该DataNode实例。 重启期间服务业务可能受损或中断,建议选择业务低峰期操作。 检查该告警是否恢复。 是,处理完毕。 否,执行9。 以root用户登录到产生告警的DataNode的节点,用户密码为安装前用户自定义,请咨询系统管理员。 如果告警原因为“DataNode数据目录创建失败”,执行10。
行处理,每个task读取部分shuffle输出文件,再对这部分任务的Join结果进行Union操作,以达到消除数据倾斜的效果。 配置参数 登录FusionInsight Manager系统,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索以下参数。 参数
chmod 600 jar包文件名 登录FusionInsight Manager系统,选择“集群 > 待操作集群名称 > 服务 > Loader > 更多 > 重启服务”输入管理员密码重启Loader服务。 登录“Loader WebUI”界面。 登录FusionInsight Ma
x及之后版本的Impala客户端节点(Euler2.9及以上操作系统)需要安装Python2版本,具体请参考Impala客户端安装Python2。 操作步骤 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source