检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Spark从HBase读取数据再写入HBase样例程序(Java) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei
FlinkIoTDBSource样例程序 功能简介 IoTDB与Flink的集成。此模块包含了iotdb source,通过flink job将时序数据从IoTDB读取出来并且打印。 代码样例 该示例演示了Flink job如何从IoTDB server读取时序数据的场景: Fl
Spark从HBase读取数据再写入HBase样例程序(Scala) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后把table1表的数据经过分析后写到HBase table2表中。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei
Spark Structured Streaming对接Kafka样例程序(Scala) 功能介绍 使用Structured Streaming,从kafka中读取广告请求数据、广告展示数据、广告点击数据,实时获取广告有效展示统计数据和广告有效点击统计数据,将统计结果写入kafka中。
<time-format> -s <sqlfile>]”命令。命令中如果携带认证密码信息可能存在安全风险,在执行命令前建议关闭系统的history命令记录功能,避免信息泄露。 运行示例: ./export-csv.sh -h x.x.x.x -p 22260 -u test -pw 密码 -td
UDF函数名称是大小写不敏感的。 请不要给UDF函数注册一个内置函数的名字。使用内置函数的名字给UDF注册会失败。 不同的JAR包中建议不要有全类名相同但实现功能逻辑不一样的类。例如UDF(UDAF/UDTF):udf1、udf2分别对应资源udf1.jar、udf2.jar。如果两个Jar包里都包含一个“com
据并替换旧凭据。 修改admin用户密码 通过Manager页面修改admin用户密码: 开启Kerberos认证的集群和开启弹性公网IP功能未开启Kerberos认证的集群支持通过Manager界面修改admin密码。 使用admin账户登录Manager页面。 MRS 2.x
Trigger Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 证书文件即将过期,如果证书文件过期失效,对应模块功能受限,无法正常使用。 可能原因 系统证书文件(CA证书、HA根证书、HA用户证书、Gaussdb根证书或者Gaussdb用户证书等)剩余有效期小于30天。
HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro
HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj
选择“KrbServer > 实例”。进入KrbServer实例页面查看KrbServer服务所在节点的主机名。 在“告警管理”页面,查看是否有ALM-12006 节点故障告警产生。 是,执行1.d。 否,执行2.a。 查看告警信息里的主机名是否和1.b主机名一致。 是,执行1.e。
备份任务是否有执行成功的记录。 是,执行3。 否,执行4。 使用最近一次备份的元数据,对HBase服务的元数据进行恢复操作。 收集故障信息 在主备集群的FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的有问题的HBase服务。
Maxwell可部署在MySQL机器上,也可独立部署在其他与MySQL网络可通的机器上。 Maxwell运行在Linux服务器上,常见的有EulerOS、Ubuntu、Debian、CentOS、OpenSUSE等,且需要Java 1.8+支持。 同步数据具体内容如下。 配置MySQL
HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj
不使用Auto Bucket,需按照已有的数据量来进行分区分桶,能更好的提升导入及查询性能。Auto Bucket会造成Tablet数量过多,最终导致有大量的小文件。 创建表时的副本数必须至少为2,默认是3,禁止使用单副本。 没有聚合函数列的表不应该被创建为AGGREGATE表。 创建主键表
Environment to continue. 使用free指令查看,该节点确实没有足够内存。 解决办法 现场进行排查内存不足原因,确认是否有某些进程占用过多内存,或者由于服务器自身内存不足。 父主题: 使用HBase
业务IP地址。 检查RegionServer的GC时间。 在FusionInsight Manager的告警列表中,查看1中的告警实例是否有“HBase GC时间超出阈值”告警产生。 是,执行3。 否,执行5。 参考“ALM-19007 HBase GC时间超出阈值”的处理步骤处理该故障。
清除。 是,处理完毕。 否,执行4。 检查ZooKeeper服务状态。 在FusionInsight Manager的告警列表中,查看是否有“进程故障”产生。 是,执行5。 否,执行8。 在“进程故障”,查看“服务名”是否为“ZooKeeper”。 是,执行6。 否,执行8。 参考ALM-12007
存储策略定义使用介绍 若Hue的服务配置参数“fs_defaultFS”配置为“viewfs://ClusterX”时,不能启用存储策略定义功能。 登录MRS Manager。 在MRS Manager界面,选择“系统设置 > 权限配置 > 角色管理 > 添加角色”: 设置“角色名称”。
会基于YARN的配置是否汇聚到HDFS目录中,详情请参见Yarn常用配置参数。 日志归档规则: MapReduce的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过50MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>