检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
NameNode堆内存使用率小于或等于阈值的90%时,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 14007 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition
URL。 拼接JDBC URL也可以不提供账户和keytab路径,采用提前认证的方式。如果使用IBM JDK运行Hive应用程序,则必须使用“JDBC代码样例二”提供的预认证方式才能访问。 以下代码片段,拼接完成后的JDBC URL示例为: jdbc:hive2://xxx.xxx.xxx
准备开发和运行环境 Manager REST API的应用开发程序当前推荐使用Java语言进行开发,可使用IntelliJ IDEA工具。 准备Manager应用开发和运行环境 准备样例工程 Manager REST API提供了不同场景下的样例程序,您可以导入样例工程进行程序学习。
Storm应用开发流程 本文档主要基于Java API进行Storm拓扑的开发。 开发流程中各阶段的说明如图1和表1所示: 图1 拓扑开发流程 表1 Storm应用开发的流程说明 阶段 说明 参考文档 了解基本概念 在开始开发应用前,需要了解Storm的基本概念,了解场景需求,拓扑等。 Storm应用开发常用概念
SQL查询样例介绍 HBase对外接口介绍 如何配置HBase双读能力 配置Windows通过EIP访问普通模式集群HBase Phoenix命令行操作介绍 运行HBase应用开发程序产生ServerRpcControllerFactory异常如何处理 BulkLoad和Put应用场景有哪些
Hive JDBC访问样例程序 Hive JDBC样例程序开发思路 创建Hive表 加载数据到Hive表中 查询Hive表数据 实现Hive进程访问多ZooKeeper 使用JDBC接口提交数据分析任务 父主题: 开发Hive应用
r、HDFS和Yarn等,获取依赖组件所在主机的IP地址的方式和获取主HMaster的IP地址的方式相同。) 是,执行31。 否,执行29。 联系网络管理员恢复网络。 在告警列表中,查看“HBase服务不可用”告警是否清除。 是,处理完毕。 否,执行31。 收集故障信息。 在FusionInsight
来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 HDFS DataNode非堆内存使用率过高,会影响HDFS的数据读写性能。
14.1-HBase-1.3 配置方式 MRS 3.x之前的版本需要去官网下载第三方的phoenix包,然后进行如下配置,MRS 3.x版本已支持Phoenix,可直接在已安装HBase客户端的节点使用Phoenix,开启了Kerberos认证的集群相关操作请参见Phoenix命
在工作环境完成网络配置。 需要查看处理数据的拓扑,提交时已启用采样功能。 查看worker进程日志 访问Storm的WebUI,请参考访问Storm的WebUI。 在“Topology Summary”区域单击指定的拓扑名称,打开拓扑的详细信息。 单击要查看日志的“Spouts”或“Bolts”任务,在“Executors
dfs.json”。 作业模板中包含了连接器的配置信息。创建、更新连接器时,实际上仅调用到作业模板中的连接器的信息。 使用场景 不同的连接器或作业的配置项不同。 更新个别配置项时,使用参数选项方式。 创建连接器或作业时,使用作业模板方式。 本工具目前支持FTP、HDFS、JDBC
dfs.json”。 作业模板中包含了连接器的配置信息。创建、更新连接器时,实际上仅调用到作业模板中的连接器的信息。 使用场景 不同的连接器或作业的配置项不同。 更新个别配置项时,使用参数选项方式。 创建连接器或作业时,使用作业模板方式。 本工具目前支持FTP、HDFS、JDBC
告警参数 参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Hive数据仓库空间写满后系统将无法正常写入数据,可能导致部分数据丢失。
Spark应用开发常见问题 Spark接口介绍 Spark应用调优 如何添加自定义代码的依赖包 如何处理自动加载的依赖包 运行SparkStreamingKafka样例工程时报“类不存在”问题 执行Spark Core应用,尝试收集大量数据到Driver端,当Driver端内存不足时,应用挂起不退出
文件通常包括集群组件信息文件,可从已创建好的MRS集群中获取相关内容。 用于程序调测或运行的节点,需要与MRS集群内节点网络互通,同时配置hosts域名信息。 准备连接Hive集群配置文件 配置并导入样例工程 Hive提供了不同场景下的多种样例程序,用户可获取样例工程并导入本地开发环境中进行程序学习。
sh之前,应预先将Flink应用程序的运行依赖包复制到客户端目录{client_install_home}/Flink/flink/lib下,应用程序运行依赖包请参考样例工程运行依赖包参考信息。 不同的样例工程使用的依赖包可能会有冲突,在运行新的样例工程时需删除旧的样例工程复制至户端目录{c
设计时应避免HBase随机查找、排序的应用场景。 业务表设计建议 预分Region,使Region分布均匀,提高并发 避免过多的热点Region。根据应用场景,可考虑将时间因素引入Rowkey。 同时访问的数据尽量连续存储。同时读取的数据相邻存储;同时读取的数据存放在同一行;同时读取的数据存放在同一cell。
安全集群中使用Python3.x对接Kafka 用户问题 通过Python3.x环境如何对接开启Kerberos认证的Kafka集群? 问题现象 客户想使用Python3.x的环境对接开启Kerberos认证的Kafka的集群。 处理步骤 登录Master节点,执行如下命令,配置华为云欧拉镜像源。 wget
准备开发和运行环境 HBase的应用程序当前推荐使用Java语言进行开发。可使用IntelliJ IDEA工具。HBase的运行环境即HBase客户端,根据指导完成客户端的安装和配置。 准备HBase应用开发和运行环境 准备工程 HBase提供了不同场景下的样例程序,您可以导入样例工程进行程序学习。
apache.hudi.utilities.sources.JsonKafkaSource // 指定消费的数据源为JsonKafkaSource, 该参数根据不同数据源指定不同的source类 --schemaprovider-class com.huaweixxx.bigdata