检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
告警 > 告警”,查看是否有该NameNode节点的ID为“12016”“ALM-12016 CPU使用率超过阈值”告警。 是,执行9 否,11 按照ALM-12016 CPU使用率超过阈值告警处理文档,处理该告警。 处理完12016告警后,等待10分钟,查看该告警是否自动消除。
登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input 开发思路
source bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input 开发思路
keytab文件位置请根据自己实际路径填写。 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -put input_xxx.txt /tmp/input,上传数据文件。
source bigdata_env kinit 组件业务用户 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input 开发思路
HDFS样例工程介绍 MRS样例工程获取地址为https://github.com/huaweicloud/huaweicloud-mrs-example,切换分支为与MRS集群相匹配的版本分支,然后下载压缩包到本地后解压,即可获取各组件对应的样例代码工程。 当前MRS提供以下HDFS相关样例工程:
C_AUTHORIZATION_FAILED”。 解决步骤 向管理员申请该Topic的访问权限。 如果拥有权限后还是无法访问该Topic,使用管理员用户登录FusionInsight Manager,选择“集群 > 服务 > Kafka > 配置 > 全部配置”进入Kafka服务配置页面,搜索“allow
对系统的影响 GC时间超出阈值,会影响到OMS主要进程的读写,可能导致任务执行变慢,甚至服务异常重启。 可能原因 该节点OMS主要进程内存使用率过大,或配置的内存不合理,导致进程GC频繁。 处理步骤 检查GC时间。 在FusionInsight Manager界面,选择“运维 >
登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在Linux系统HDFS客户端使用命令hdfs dfs -putlocal_filepath /tmp/input 开发思路
Topic每秒的fetch请求数 Topic每秒的produce请求数 支持查询Broker ID与节点IP的对应关系。在Linux客户端下,使用kafka-broker-info.sh查询Broker ID与节点IP的对应关系。 父主题: Kafka
Java API 提供HDFS文件系统的应用接口,本开发指南主要介绍如何使用Java APIHDFS Java API接口介绍 HDFS文件系统的应用开发。 C API 提供HDFS文件系统的应用接口,使用C语言开发的用户可参考C接口HDFS C API接口介绍 的描述进行应用开发。
所有BE节点中最大的compaction score值 (BE)”。 单击“平滑次数”后的编辑按钮,根据实际使用情况,修改平滑次数配置项,单击“确定”。 单击“操作”列的“修改”,根据实际使用情况,更改告警阈值,单击“确定”。 等待两分钟,在告警列表中查看该告警是否清除。 是,处理完毕。 否,执行5。
直接重启 重启时正在运行的任务将失败,重启期间无法提交新任务。 直接重启耗时约10分钟。 滚动重启 滚动重启时运行在重启实例上的任务将失败,可以向其他节点提交任务。 10个节点耗时约50分钟。 Flume 直接重启 停止期间数据流中断,启动后恢复。 直接重启耗时约5分钟。 滚动重启
当前告警。 如果“alarm.resource.lack.enable”参数配置为“false”,则不允许所有队列上报当前告警。 以上参数可以在Manager页面选择“集群 > 服务 > Yarn > 配置 > 全部配置”,搜索对应参数进行配置。 当可用资源充足时,该告警自动消除。
keytab文件位置请根据自己实际路径填写。 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -put input_xxx.txt /tmp/input,上传数据文件。
ME变量为实际使用的值。 private static final String PRNCIPAL_NAME = "hdfsDeveloper"; 安全认证代码 目前样例代码统一调用LoginUtil类进行安全认证。 在HDFS样例工程代码中,不同的样例工程,使用的认证代码不同,
ZooKeeper实例状态异常。 磁盘容量不足。 处理步骤 检查DNS。 查看ZooKeeper实例所在节点上是否安装DNS。在ZooKeeper实例所在Linux节点使用命令cat /etc/resolv.conf,看该文件是否为空。 是,执行2。 否,执行3。 运行命令service named status查看DNS是否启动。
支持online和offline场景 接口类型简介 Kafka主要提供了的API主要可分Producer API和Consumer API两大类,均提供有Java API,使用的具体接口说明请参考Kafka Java API接口介绍。 父主题: Kafka应用开发概述
<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -put input_data1
是,操作系统熵值不低于100,执行9。 否,操作系统熵值低于100,可使用以下两种方式之一进行配置,然后执行9。 方式一:使用“haveged”工具(真随机数方式):请联系操作系统供应商安装并启动该工具。 方式二:使用“rng-tools”工具(伪随机数方式):请联系操作系统供应商安