检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
专线详情请参考什么是云专线。 弹性IP访问和云专线访问可以在MRS集群管理控制台上进行切换:登录MRS管理控制台,在待操作的MRS集群“概览”页面单击“集群管理页面”后的,在打开的页面中进行切换。 通过ECS访问FusionInsight Manager:通过与MRS集群在同一V
使用Hive客户端(MRS 3.x之前版本) 安装客户端,具体请参考安装客户端章节。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source bigdata_env 根据集群认证模式,完成Hive客户端登录。
使用SQL查询指标数据信息。 业务结束后,删除存储的数据。 图1 数据结构 操作步骤 登录客户端。 以客户端安装用户登录安装客户端的节点,执行以下命令切换到客户端安装目录,例如客户端安装目录为“/opt/client”。 cd /opt/client 执行以下命令配置环境变量。 source
Scan中新增反向扫描方法设置isReversed()和setReversed(boolean reversed)。 HBase 0.98到1.0的API变更,请参考:https://issues.apache.org/jira/browse/hbase-10602。 HBase 1.0 建议不要使用org
单击“确定”完成操作。 登录ClickHouse客户端安装节点,使用新添加的用户及设置的密码连接ClickHouse服务。 执行以下命令,切换到客户端安装目录。 cd /opt/客户端安装目录 执行以下命令配置环境变量。 source bigdata_env 如果当前集群未启用K
构必须一致。 如果'表名'设置了加密算法SMS4或AES,则不支持对此HBase表启用将数据从主集群实时同步到备集群的功能。 如果备集群不在线,或备集群中已存在同名但结构不同的表,启用容灾功能将失败。 如果主集群中部分Phoenix表启用容灾功能同步数据,则备集群中不能存在与主集
专线详情请参考什么是云专线。 弹性IP访问和云专线访问可以在MRS集群管理控制台上进行切换:登录MRS管理控制台,在待操作的MRS集群“概览”页面单击“集群管理页面”后的,在打开的页面中进行切换。 通过ECS访问FusionInsight Manager:通过与MRS集群在同一V
该节点与主OMS节点NTP服务时间偏差太大。 处理步骤 检查该节点的NTP服务模式。 以root用户登录主管理节点,执行su - omm切换到omm用户,执行以下命令查看主备节点的资源状态。 sh ${BIGDATA_HOME}/om-server/om/sbin/status-oms
-cp ${BASEDIR}/conf:${i_cp} com.huawei.bigdata.hbase.examples.TestMain 切换到“/opt/test”,执行以下命令,运行Jar包。 sh run.sh 父主题: 在Linux中调测HBase应用
获取。 cd 客户端安装目录 source bigdata_env kinit hdfs 如果集群未开启Kerberos认证,执行如下命令切换到omm用户,再进入客户端安装目录设置环境变量。 su - omm cd 客户端安装目录 source bigdata_env 获取文件列表。
果Kafka的leader和follower的offset相差太大,用户重启Kafka服务,Kafka的follower和leader相互切换,则Kafka服务重启后,topic的offset变小。 如果Spark Streaming应用一直在运行,由于Kafka上topic的o
oms_ip表示主管理节点的IP地址。 根据提示输入omm用户密码完成文件复制。 以omm用户登录到主管理节点。 执行以下命令,防止超时退出: TMOUT=0 执行以下命令,切换目录: cd ${HOME}/.ssh 执行以下命令添加新的公钥信息: cat id_rsa.pub_bak >> authorized_keys
Source配置的IP所在节点与故障节点的网络状态。 确认Flume Source是否是avro类型。 是,执行2.c。 否,执行3。 登录故障节点所在主机,执行以下命令切换root用户。 sudo su - root 执行ping Flume Source配置的IP地址命令查看对端主机是否可以ping通。 是,执行3。
配置”,搜索hadoop.rpc.protection查看。 针对MRS 3.x之前版本,在集群详情页选择“组件管理 > HDFS > 服务配置”,将“基础配置”切换为“全部配置”,搜索hadoop.rpc.protection查看。 操作步骤 进入Yarn服务参数“全部配置”界面,具体操作请参考修改集群服务配置参数。
若Kafka的leader和follower的offset相差太大,用户重启Kafka服务,Kafka的follower和leader相互切换,则Kafka服务重启后,topic的offset变小。 若Spark Streaming应用一直在运行,由于Kafka上topic的of
记录ZooKeeper角色实例其中任意一个的IP地址即可。 根据业务情况,准备好客户端,参考使用MRS客户端章节,登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin
修改omm和ommdba用户需要获取root用户密码。 修改MRS集群节点操作系统用户密码 以root登录待修改密码节点。 执行以下命令切换用户。 sudo su - root 执行如下命令,修改omm/ommdba/root用户密码。 passwd omm passwd ommdba
的,查看该告警的主机名称。 以root用户登录该告警的主机地址,用户密码为安装前用户自定义,请咨询系统管理员。 执行命令su - omm,切换至omm用户。 执行sh ${BIGDATA_HOME}/om-server/OMS/workspace0/ha/module/hacom/script/status_ha
Node的详细信息,并将RPC调用保存到备用的NameNode。在异常情况下有很多优势,例如当备用的NameNode连接长时间不响应时。 当发生故障,将另一个NameNode切换为活动状态时,缓存的详细信息将被更新为当前活动的NameNode的信息。 本章节适用于MRS 3.x及后续版本。 操作步骤 设置参数的路径如下:
[{"topic":"test_2"},{"topic":"test_3"}], "version":1 } 操作步骤 以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命