检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Worker4进程GC时间过长,会影响Worker4进程运行的性能,甚至造成Worker4进程不可用。 可能原因 该节点Worker4进程堆内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间。 在FusionInsight Manager首页,单击“运维 >
态都是良好。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,找到本告警,根据定位信息找到故障主机。 使用omm用户登录故障主机。 执行如下命令初始化环境变量: source 集群安装目录/FusionInsight_ClickHouse_*/
表employees_info_extended中的入职时间为2014的分区中。 统计表employees_info中有多少条记录。 查询使用以“cn”结尾的邮箱的员工信息。 提交数据分析任务,统计表employees_info中有多少条记录。实现请见分析Hive数据。 父主题:
表employees_info_extended中的入职时间为2014的分区中。 统计表employees_info中有多少条记录。 查询使用以“cn”结尾的邮箱的员工信息。 提交数据分析任务,统计表employees_info中有多少条记录。实现请见分析Hive数据。 父主题:
态都是良好。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,找到本告警,根据定位信息找到故障主机。 使用omm用户登录故障主机。 执行如下命令初始化环境变量: source ${BIGDATA_HOME}/FusionInsight_Clic
用户HA证书文件已经失效,会导致主备模式下FlinkServer将无法正常对外提供服务,FlinkServer提交Flink作业功能无法正常使用。 可能原因 用户HA证书文件失效。 处理步骤 查看告警信息。 登录FusionInsight Manager首页,选择“运维 > 告警 >
OM_CLUSTERS;,查看集群信息。 查看图中upgradObservationPeriod isON值是否为true,如图1所示。 是,表示系统当前处于升级观察期,请使用UpdateTool工具提交该次升级,具体操作参考相应版本的升级指导书。 否,执行6。 图1 集群信息 等待第二天凌晨,查看告警是否清除。
如developuser。 “用户组”需加入developgroup组。若用户需要对接Kafka,则需要添加kafkaadmin用户组。 使用Ranger管理员用户rangeradmin登录Ranger管理页面。 在首页中单击“HADOOP SQL”区域的组件插件名称如“Hive”。
说明 Scala API 提供Scala语言的API,提供过滤、join、窗口、聚合等数据处理能力。由于Scala语言的简洁易懂,推荐用户使用Scala接口进行程序开发。 Java API 提供Java语言的API,提供过滤、join、窗口、聚合等数据处理能力。 Flink基本概念
null\bin\winutils.exe in the Hadoop binaries. 通过MapReduce服务的WebUI进行查看 使用具有任务查看权限的用户登录FusionInsight Manager,选择“集群 > 待操作集群的名称 > 服务 > Mapreduce >
注意事项 不允许多个线程在同一时间共用同一个HTable实例。HTable是一个非线程安全类,因此,同一个HTable实例,不应该被多个线程同时使用,否则可能会带来并发问题。 父主题: HBase数据读写示例程序
注意事项 不允许多个线程在同一时间共用同一个HTable实例。HTable是一个非线程安全类,因此,同一个HTable实例,不应该被多个线程同时使用,否则可能会带来并发问题。 父主题: HBase数据读写样例程序
directory</name> <value>[1]查询中间结果的临时目录</value> </property> Java样例:使用JDBC接口访问HBase。 public String getURL(Configuration conf)
表employees_info_extended中的入职时间为2014的分区中。 统计表employees_info中有多少条记录。 查询使用以“cn”结尾的邮箱的员工信息。 提交数据分析任务,统计表employees_info中有多少条记录。实现请参见Hive JDBC访问样例程序。
directory</name> <value>[1]查询中间结果的临时目录</value> </property> JAVA样例:使用JDBC接口访问HBase public String getURL(Configuration conf)
g-kafka-0-10_2.12-3.1.1-hw-ei-311001-SNAPSHOT.jar 用户自己开发的应用程序以及样例工程都可使用上述命令提交。 但是Spark开源社区提供的KafkaWordCount等样例程序,不仅需要添加--jars参数,还需要配置其他,否则会报
QL或Opengauss数据库无法提供服务。 可能原因 CDL任务异常,数据停止处理;或源端数据库更新快,CDL数据处理较慢。 处理步骤 使用具有创建CDL任务的用户或者具有管理员权限的用户登录FusionInsight Manager。 选择“运维 > 告警 > 告警”,单击“
1/src/flink-examples/flink-examples-security/FlinkStreamJavaExample。 本地使用IDEA工具导入样例工程,等待Maven工程下载相关依赖包,具体操作可参考配置并导入样例工程。 图1 Flink样例工程示例 本地配置好M
机名和IP地址请保持一一对应。 未安装HBase客户端时: Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致。 当Linux环境所在主机不是集群中的节点时,需要在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。
g-kafka-0-10_2.12-3.1.1-hw-ei-311001-SNAPSHOT.jar 用户自己开发的应用程序以及样例工程都可使用上述命令提交。 但是Spark开源社区提供的KafkaWordCount等样例程序,不仅需要添加--jars参数,还需要配置其他,否则会报