检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ME变量为实际使用的值。 private static final String PRNCIPAL_NAME = "hdfsDeveloper"; 安全认证代码 目前样例代码统一调用LoginUtil类进行安全认证。 在HDFS样例工程代码中,不同的样例工程,使用的认证代码不同,
Manager首页,单击“运维 > 告警 > 告警”,查看否存在“ALM-14008 HDFS DataNode内存使用率超过阈值”的告警。 是,执行11。 否,执行13。 参考ALM-14008 DataNode堆内存使用率超过阈值的处理步骤,对该异常告警进行处理,查看是否消除该告警。 是,执行12。 否,执行13。
告警 > 告警”,查看是否有该NameNode节点的ID为“12016”“ALM-12016 CPU使用率超过阈值”告警。 是,执行9 否,11 按照ALM-12016 CPU使用率超过阈值告警处理文档,处理该告警。 处理完12016告警后,等待10分钟,查看该告警是否自动消除。
Java API 提供HDFS文件系统的应用接口,本开发指南主要介绍如何使用Java APIHDFS Java API接口介绍 HDFS文件系统的应用开发。 C API 提供HDFS文件系统的应用接口,使用C语言开发的用户可参考C接口HDFS C API接口介绍 的描述进行应用开发。
默认取值: 不涉及 表2 Query参数 参数 是否必选 参数类型 描述 tags 否 String 参数解释: 标签列表。可以通过集群的标签来搜索指定标签的集群,当指定多个tag进行查询时,标签之间是与的关系。 约束限制: 不涉及 取值范围: tags参数的格式为tags=k1*v1,k2*v2
jar。当前版本用户除了这一步外还需要额外的配置项,否则会报class not found异常。 回答 当前版本的Spark内核直接依赖于kafka相关的jar包(结构流使用),因此提交结构流任务时,需要把Kafka相关jar包加入到结构流任务driver端的库目录下,确保driver能够正常加载kafka包。
OozieSparkHBaseExample和OozieSparkHiveExample样例工程,请参考使用Oozie调度Spark访问HBase以及Hive。 使用客户端上传Oozie的example文件到HDFS。 登录客户端所在节点,切换到客户端所在目录,例如“/opt/client”。
支持online和offline场景 接口类型简介 Kafka主要提供了的API主要可分Producer API和Consumer API两大类,均提供有Java API,使用的具体接口说明请参考Kafka Java API接口介绍。 父主题: Kafka应用开发概述
<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -put input_data1
是,操作系统熵值不低于100,执行9。 否,操作系统熵值低于100,可使用以下两种方式之一进行配置,然后执行9。 方式一:使用“haveged”工具(真随机数方式):请联系操作系统供应商安装并启动该工具。 方式二:使用“rng-tools”工具(伪随机数方式):请联系操作系统供应商安
safeMode=true”。 单击“保存”,配置保存完成后。在Kafka实例页签勾选所有“KafkaUI”实例,选择“更多 > 重启实例”。 使用omm用户登录任意KafkaUI实例节点,查看进程: ps -ef | grep KafkaUI 如果包含参数“-Dfastjson.parser
当前告警。 如果“alarm.resource.lack.enable”参数配置为“false”,则不允许所有队列上报当前告警。 以上参数可以在Manager页面选择“集群 > 服务 > Yarn > 配置 > 全部配置”,搜索对应参数进行配置。 当可用资源充足时,该告警自动消除。
safeMode=true”。 单击“保存”,配置保存完成后。在Flink实例页签勾选所有“FlinkServer”实例,选择“更多 > 重启实例”。 使用omm用户登录任意FlinkServe实例节点,查看进程: ps -ef | grep FlinkServer 如果包含参数“-Dfastjson
ME变量为实际使用的值。 private static final String PRNCIPAL_NAME = "hdfsDeveloper"; 安全认证代码 目前样例代码统一调用LoginUtil类进行安全认证。 在HDFS样例工程代码中,不同的样例工程,使用的认证代码不同,
<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -put input_data1
kinit<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令hadoop fs -putinput_data1
keytab文件位置请根据自己实际路径填写。 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 在Linux系统HDFS客户端使用命令hadoop fs -put input_xxx.txt /tmp/input,上传数据文件。
对系统的影响 GC时间超出阈值,会影响到OMS主要进程的读写,可能导致任务执行变慢,甚至服务异常重启。 可能原因 该节点OMS主要进程内存使用率过大,或配置的内存不合理,导致进程GC频繁。 处理步骤 检查GC时间。 在FusionInsight Manager界面,选择“运维 >
************************************************") // 读取文本路径信息,并使用逗号分隔 val filePaths = ParameterTool.fromArgs(args).get("filePath",
************************************************") // 读取文本路径信息,并使用逗号分隔 val filePaths = ParameterTool.fromArgs(args).get("filePath",