检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
以root用户登录上述IP所在主机,执行ifconfig命令查看DBService的浮动IP在该节点是否存在,用户密码为安装前用户自定义,请咨询系统管理员。 是,执行5。 否,执行9。 执行ping 浮动IP地址命令检查DBService的浮动IP的状态,是否能ping通。 是,执行6。
可能原因 HDFS NameNode配置的堆内存不足。 处理步骤 清除无用文件。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env。 如果集群采用安全版本,要进行安全认证。 执行kinit
在“服务”中勾选待操作集群的“HDFS”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后20分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 DataNode JVM参数配置规则
改名为Spark,服务包含的角色名也有差异,例如JDBCServer2x变更为JDBCServer。相关涉及服务名称、角色名称的描述和操作请以实际版本为准。 告警属性 告警ID 告警级别 是否自动清除 43010 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。
改名为Spark,服务包含的角色名也有差异,例如JDBCServer2x变更为JDBCServer。相关涉及服务名称、角色名称的描述和操作请以实际版本为准。 告警属性 告警ID 告警级别 是否自动清除 43012 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。
INFO INFO表示记录系统及各事件正常运行状态信息。 DEBUG DEBUG表示记录系统及系统的调试信息。 如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Kafka的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。
进入客户端目录,执行以下命令加载环境变量并登录。若安装了Spark2x多实例或者同时安装了Spark和Spark2x,在使用客户端连接具体实例时,请执行以下命令加载具体实例的环境变量。 source bigdata_env source Spark2x/component_env kinit
ult组中的RegionServer的运行状态不为良好时不允许被勾选分配。若想要分配来自不同RSGroup的RegionServer实例,请分多次修改操作进行分配。 开启跨AZ特性时,分配操作需要保证分配结果能使每个AZ中均存在该RSGroup的RegionServer实例,而且
ample、OozieSparkHBaseExample和OozieSparkHiveExample样例工程。 修改样例工程中的如下参数,请参考表1。 表1 文件参数修改列表 文件名 参数名 值 取值样例 src\main\resources\application.properties
lt组中的RegionServer的运行状态不为良好时不允许被勾选分配。如果想要分配来自不同RSGroup的RegionServer实例,请分多次修改操作进行分配。 开启跨AZ特性时,分配操作需要保证分配结果能使每个AZ中均存在该RSGroup的RegionServer实例,而且
information表示记录系统及各事件正常运行状态信息。 DEBUG debug表示记录系统及系统的调试信息。 如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入CDL的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。
12005000209 I 男 26 I城市 12005000210 J 女 25 J城市 操作步骤 以客户端安装用户,登录安装客户端的节点,客户端安装详细操作请参见安装客户端(3.x及之后版本)。 执行以下命令切换到客户端目录,客户端安装目录如:/opt/client。 cd /opt/client
spent (ms)<10%。 主要通过如下参数进行调整。 参数入口: 进入Yarn服务参数“全部配置”界面,在搜索框中输入参数名称。具体操作请参考修改集群服务配置参数章节。 建议:配置“mapreduce.map.java.opts”参数中“-Xmx”值为“mapreduce.map
可能原因 HDFS NameNode配置的非堆内存不足。 处理步骤 清除无用文件。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env。 如果集群采用安全版本,要进行安全认证。 执行kinit
InsertBolt中也可以增加处理逻辑对数据进行处理。 本章节只适用Storm与JDBC组件间的访问。本章中描述的jar包的具体版本信息请以实际情况为准。 应用开发操作步骤 确认华为MRS产品Storm组件已经安装,且正常运行。 参考获取MRS应用开发样例工程,获取样例代码解压
以root用户登录主管理节点,用户密码为安装前用户自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 如果当前故障节点为主管理节点,当登录主管理节点时无法登录,则说明可能为主管理节点网络故障,请执行4。 执行ping 故障主机IP地址命令检查故障节点是否可达。
a数据再写入Doris,更容易控制导入数据单批次数据量,避免大量小文件产生。如果确实已经使用了Routine Load进行导数,在没整改前请配置FE“max_tolerable_backend_down_num”参数值为“1”,以提升导入数据可靠性。 建议低频攒批导入数据,平均单
全认证。 在MapReduce样例工程代码中,test@HADOOP.COM、user.keytab和krb5.conf为示例,实际操作时请联系管理员获取相应账号对应权限的keytab文件和krb5.conf文件,并将keytab文件和krb5.conf文件放入到样例代码中的conf目录,安全登录方法如下代码所示。
OpenTSDB是基于HBase存储时序数据的,在集群中开启OpenTSDB后,系统会在集群中创建4张HBase表。OpenTSDB系统表如所表1示。 请不要人为去修改这4张HBase表,因为这可能会导致OpenTSDB不可用。 表1 Opentsdb系统表 表名 说明 tsdb 用于存储数据
用的JDK版本一致。 当客户端所在主机不是集群中的节点时,需要在客户端所在节点的hosts文件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 操作步骤 登录linux环境,创建运行OpenTSDB样例的工作目录,比如“/opt/opentsdb-example”,配