检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
r。该模块仅持续对各类调用的优先级数字进行追踪,并周期性地对这些数字进行减小处理。 请参考修改集群服务配置参数,进入HDFS的“全部配置”页面,在搜索框中输入参数名称。 表1 Fair调用队列参数 参数 描述 默认值 ipc.<port>.callqueue.impl 队列的实现类。用户需要通过“org
件的有效期是90天。 Kerberos服务的renewable、forwardable开关和票据刷新周期的设置在Kerberos服务的配置页面的“系统”标签下,票据刷新周期的修改可以根据实际情况修改“kdc_renew_lifetime”和“kdc_max_renewable_life”的值。
本地(或位于HDFS上)的TsFile文件。 用户可以将TsFile文件写入到HDFS上,进而满足Hadoop、Flink等数据处理任务的访问。 对于写入到HDFS或者本地的TsFile文件,可以利用TsFile-Hadoop或TsFile-Flink连接器,允许Hadoop或Flink进行数据处理。
登录FusionInsight Manager,选择“集群 > 服务 > Flume”,在“实例”下单击准备上传配置文件的“Flume”角色,单击“实例配置 ”页面“flume.config.file”参数后的“上传文件”,选择1.d导出的“properties.properties”文件完成操作。 验证日志是否传输成功。
例代码。 获取hetu-jdbc jar包。 通过Manager下载客户端文件至本地获取: 登录FusionInsight Manager页面,选择“集群 > 服务 > HetuEngine > 更多 > 下载客户端”。 选择“完整客户端”,根据待安装客户端节点的节点类型选择正确
Manager首页,选择“集群 > 待操作集群的名称 > 服务 > HBase”,单击“HMaster(主)”,打开该HBase实例的WebUI,刷新页面查看Region分布是否均衡。 是,执行14。 否,执行15。 观察该告警是否清除。 是,处理完毕。 否,执行15。 收集故障信息 在主备群的FusionInsight
登录FusionInsight Manager,选择“集群 > 服务 > Flume”,在“实例”下单击准备上传配置文件的“Flume”角色,单击“实例配置 ”页面“flume.config.file”参数后的“上传文件”,选择1.d导出的“properties.properties”文件完成操作。 验证日志是否传输成功。
/srv/BigData/data1/clickhouse_path/metadata mv lineorder.sql /home/backup 登录MRS Manager页面,选择“集群 > 服务 > ClickHouse > 实例”,选择对应的实例节点,单击“启动实例”,完成实例启动。 实例启动成功后,使用C
sdb根证书或者Gaussdb用户证书等)剩余有效期小于30天。 处理步骤 查看告警原因。 打开FusionInsight Manager页面,在实时告警列表中,单击此告警所在行的。 查看“附加信息”,获取告警附加信息。 告警附加信息中显示“CA Certificate”,以omm用户登录主OMS管理节点,执行2。
Manager首页,选择“集群 > 服务 > HBase”,单击“HMaster WebUI”后的“HMaster(主)”链接,进入该HBase实例的WebUI页面,查看“Home”页签的“Region Servers”区域中的“Requests”中的“Filtered Read Request Count”和“Write
更新客户端。 前提条件 Manager上已成功添加服务。 仅适用于Spark 、Hive 、Flink服务。 操作步骤 登录Manager页面,选择“集群 > 服务 > JobGateway > 实例”,查看所有JobServer实例节点IP。 获取部署了JobServer的节点
检查该节点与主OMS节点NTP服务时间偏差是否太大。 NTP告警的“附加信息”是否描述时间偏差(time offset)太大。 是,执行4.b。 否,执行5。 在“主机管理”页面,勾选告警节点的主机,选择“更多 > 停止所有角色”停止告警节点的所有服务。 如果告警节点时间比主OMS节点NTP服务时间慢,校正告警节点
确认处于丢失状态的节点是否是人为未经过退服操作,直接主动删除的主机。 是,执行3。 否,执行5。 选择“集群 > 待操作集群的名称 > 服务 > Yarn”,进入“配置”页面,选择“全部配置”,搜索“yarn.nodemanager.lost.alarm.threshold”,修改值为未退服主动删除的主机个数。设置成功后检查告警是否清除。
Core和Spark Streaming使用上表中的API接口进行程序开发。而SparkSQL模块,支持CLI或者JDBCServer两种方式访问。其中JDBCServer的连接方式也有Beeline和JDBC客户端代码两种。详情请参见Spark JDBCServer接口介绍。 sp
如果本地网络无法直接连接客户端节点上传文件,可先将jar文件或者源数据上传至OBS文件系统中,然后通过MRS管理控制台集群内的“文件管理”页面导入HDFS中,再通过HDFS客户端使用hdfs dfs -get命令下载到客户端节点本地。 将用于认证的用户keytab文件也上传到代码
模块名称,可自定义。 test_source_1 bind 待连接的Flume角色所在节点的IP地址,可在“集群 > 服务 > Flume > 实例”页面查看任一Flume角色实例的IP地址。 192.168.10.192 port 连接端口,建议从21154开始配置。 21154 Memory
Core和Spark Streaming使用上表中的API接口进行程序开发。而SparkSQL模块,支持CLI或者JDBCServer两种方式访问。其中JDBCServer的连接方式也有Beeline和JDBC客户端代码两种。详情请参见Spark JDBCServer接口介绍。 sp
Core和Spark Streaming使用上表中的API接口进行程序开发。而SparkSQL模块,支持CLI或者JDBCServer两种方式访问。其中JDBCServer的连接方式也有Beeline和JDBC客户端代码两种。详情请参见Spark JDBCServer接口介绍。 sp
同步文件不存在,或者文件权限有误。 处理步骤 检查主备Manager服务器间的网络是否正常。 在FusionInsight Manager页面,选择“运维 > 告警 > 告警”,单击此告警所在行的,获取该告警的备Manager(即Peer Manager)IP地址。 以root用
设置告警阈值 等待2分钟,查看告警是否消失。 是,处理完毕。 否,执行4。 检查磁盘使用率是否达到上限 打开FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看该告警的主机名称和磁盘分区信息。 以root用户登录告警所在节点,用户密码为安装前用户自定义,请咨询系统管理员。