检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
FlinkIoTDBSink样例程序 功能简介 IoTDB与Flink的集成。此模块包含了iotdb sink,通过flink job将时序数据写入IoTDB。 代码样例 该样例演示了从一个Flink job中发送数据到IoTDB server的场景。 一个模拟的Source S
jar”。拷贝jar包到如下路径。 Linux:JDK安装目录/jre/lib/security Windows:JDK安装目录\jre\lib\security 将“客户端安装目录/JDK/jdk/jre/lib/ext/”目录下“SMS4JA.jar”拷贝到如下路径。 Linux:JDK安装目录/jre/lib/ext/
enabled置为true。 开发思路 查询table1表的数据。 根据table1表数据的key值去table2表做查询。 把前两步相应的数据记录做连接操作。 把上一步骤的结果写到table2表。 父主题: 从HBase读取数据再写入HBase
请求OBS接口频率太高。 处理步骤 登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > meta > OBS操作被流控总数”,将阈值或平滑次数参数的值根据实际情况调大。 观察界面告警是否清除。 是,处理完毕。 否,执行3。 联系OBS运维人员查看OBS服务是否正常。 是,执行4。
修改Manager系统域名时,需要重启所有集群,集群在重启期间无法使用。 修改域名后,Kerberos管理员与OMS Kerberos管理员的密码将重新初始化,请使用默认密码并重新修改。组件运行用户的密码是系统随机生成的,如果用于身份认证,请参见下载MRS集群用户认证凭据文件,重新下载keytab文件。
status user-$(id -u).slice | grep limit 是,执行6。 否,执行4。 切换为root用户执行以下命令,将omm用户的该配置修改为60000。 systemctl set-property user-2000.slice TasksMax=60000
选择“HiveServer/MetaStore > JVM”,将“HIVE_GC_OPTS/METASTORE_GC_OPTS”参数中“-Xmx”的值根据如下建议进行调整,并单击“保存”。 HiveServer的GC参数配置建议 当Hive GC时间超出阈值时,将“-Xmx”值调整为默认值的2倍,比如:
当HA检测到Tomcat资源正常后,告警恢复。 Tomcat资源为单主资源,一般资源异常会导致主备倒换,看到告警时,基本已经主备倒换,并在新主环境上启动新的Tomcat资源,告警恢复。该告警用于提示用户,Manager主备倒换的原因。 MRS 3.3.1及之后版本,告警名称从“tomcat资源异常”变成“Manager
handler占满时参数调优 参数名称 参数描述 调整策略 hbase.regionserver.handler.count 在RegionServer上启动的RPC侦听器实例数。 调大此参数值,不建议超过1000。 hbase.ipc.server.max.default.callqueue
HBase单个RegionServer上Region数过多。 HBase RegionServer堆大小较小。 资源不足。 相关参数配置不合理。 处理步骤 检查HBase相关配置是否合理。 登录MRS集群详情页面,选择“组件管理 > HBase > 服务配置”,将“基础配置”切换为“全部配置”,搜索“hbase
e启动失败。 回答 默认情况下,单个磁盘的故障将会引起HDFS DataNode进程关闭,导致NameNode为每一个存在DataNode上的block调度额外的副本,在没有故障的磁盘中引起不必要的块复制。 为了防止此情况,用户可以通过配置DataNodes来承受dfs.data
e启动失败。 回答 默认情况下,单个磁盘的故障将会引起HDFS DataNode进程关闭,导致NameNode为每一个存在DataNode上的block调度额外的副本,在没有故障的磁盘中引起不必要的块复制。 为了防止此情况,用户可以通过配置DataNodes来承受dfs.data
Spark故障排除 访问Spark应用获取的restful接口信息有误 为什么从Yarn Web UI页面无法跳转到Spark Web UI界面 HistoryServer缓存的应用被回收,导致此类应用页面访问时出错 加载空的part文件时,app无法显示在JobHistory的页面上
执行以下命令修改Spark客户端配置文件目录下的“hive-site.xml”。 vi Spark/spark/conf/hive-site.xml 将“hive.metastore.warehouse.dir”的值修改为对应的OBS路径,例如“obs://hivetest/user/hive/warehouse/”。
ka Broker,需开启Kafka内外网分流访问。 前提条件 Broker所在节点同时具有内网IP和外网IP,Broker绑定在内网IP上,外网无法访问。或者Broker所在节点只具有内网IP,外部服务通过网闸机映射访问内网。 ZooKeeper服务正常。 Kafka实例状态和磁盘状态均正常。
cluster default_cluster IDENTIFIED WITH PLAINTEXT_PASSWORD BY 'password'; 将只读权限角色赋予普通用户 GRANT ck_role to user_01 on cluster default_cluster; 查看用户权限
登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > meta > OBS的readFully接口调用失败总数”,将阈值或平滑次数参数的值根据实际情况调大。 观察界面告警是否清除。 是,处理完毕。 否,执行3 联系OBS运维人员查看OBS服务是否正常。 是,执行4。
登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > meta > OBS的read接口调用失败总数”,将阈值或平滑次数参数的值根据实际情况调大。 观察界面告警是否清除。 是,处理完毕。 否,执行3。 联系OBS运维人员查看OBS服务是否正常。 是,执行4。
创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列的数据加密。只支持对存储在HDFS上的TextFile和SequenceFile文件格式的Hive表进行列加密,不支持视图以及Hive over HBase场景。 Hive列加
对系统的影响 该节点的时间与集群其他节点的时间不同步,可能会导致该节点上的某些FusionInsight应用无法正常运行。如果该节点与其他kerberos服务实例时差持续增大,则可能引起该节点组件进行kerberos认证将失败,进而引起业务异常。 可能原因 该节点的NTP服务无法正常启动。