检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
记录ZooKeeper角色实例其中任意一个的IP地址即可。 根据业务情况,准备好客户端,参考使用MRS客户端章节,登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin
locked 前提条件 已确认主管理节点IP地址。 修改LDAP管理账户密码 以omm用户通过管理节点IP登录主管理节点。 执行以下命令,切换到目录。 cd ${BIGDATA_HOME}/om-server/om/meta-0.0.1-SNAPSHOT/kerberos/scripts
S后,即可在HDFS客户端查看和创建OBS文件目录。 HDFS对接OBS 以客户端安装用户登录安装了HDFS客户端的节点。 执行以下命令,切换到客户端安装目录。 cd 客户端安装目录 执行以下命令配置环境变量。 source bigdata_env 如果集群为安全模式,执行以下命
检查数据目录所在磁盘是否故障。 使用omm用户,在所提示的数据目录的上一级目录下,进行创建、删除文件测试,看能够正常读写磁盘。 是,执行6。 否,执行5。 更换或者修复数据目录所在磁盘,保证其可以正常读写。 在FusionInsight Manager首页,选择“集群 > 服务 > Kafka >
可能原因 磁盘老化。 处理步骤 更换磁盘。 在FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 查看该告警的详细信息,查看定位信息中对应的“主机名”字段和“磁盘名”字段的值,获取该告警上报的故障磁盘信息。 更换硬盘。 检查告警是否清除。 是,操作结束。
aseContext的bulkDelete接口对HBase表上这些rowKey对应的数据进行删除。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME”
日志。 表1 参数说明 参数 描述 默认值 spark.jobhistory.address JobHistoryServer页面的地址,格式:http(s)://ip:port/jobhistory。例如,将参数值设置为“https://10.92.115.1:26014/jobhistory”。
Table中使用的Short和Long数据类型在DESCRIBE命令中分别显示为Smallint和Bigint。 可以使用DESCRIBE格式化命令查看表数据大小和表索引大小。 操作结果 根据命令创建表。 父主题: CarbonData数据分析
遇到如上情况,需要登录Hive客户端,连接到每个HiveServer,并分别删除永久函数。具体操作如下: 以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd客户端安装目录 例如安装目录为“/opt/client”,则执行以下命令: cd /opt/client 执行以下命令配置环境变量。
x及之前版本,操作步骤如下: 使用admin用户登录MRS Manager界面,选择“服务管理 > HBase > 服务配置”,将“参数类别”的“基础配置”切换为“全部配置”,选择“HMaster > 自定义”,给参数“hbase.hmaster.config.expandor”新增名称为“hbase
在行的,查看该告警的主机地址。 以root用户登录告警所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行命令su - omm,切换到omm用户。 执行命令vi $BIGDATA_LOG_HOME/omm/oms/ha/scriptlog/tomcat.log,查看ha
执行以下命令获取HA进程的“pid”: ps -ef |grep "ha.bin" |grep DBSERVICE 执行以下命令,查看协议是否全部变更为TCP: netstat -nap | grep pid | grep -v unix 是,结束操作。 否,请联系运维人员。 [omm@host03]\>netstat
ClickHouse业务量一直比较大,可以适当在ClickHouse配置界面调大ZNODE_GROWTH_LIMIT阈值; ClickHouse存在业务大的变更或者迁移、导数据的动作。 处理步骤 选择“集群 > ClickHouse > 实例 > 全部配置”,搜索“ZNODE_GROWTH_LIM
specification xxx does not exist. 产品规格 xxx 不存在! 请更换其他产品规格或可用区 400 12000050 Incorrect certificate. 错误的证书! 请更换正确的证书 400 12000052 No access rights. 无权访问!
INTERVAL '1' SECOND AND t2.proctime + INTERVAL '1' SECOND"); //将查询结果转换为Stream,并打印输出 tableEnv.toAppendStream(result, Row.class).print();
化数据进行批量分析汇总完成数据计算。提供类似SQL的Hive Query Language语言操作结构化数据,其基本原理是将HQL语言自动转换成MapReduce任务,从而完成对Hadoop集群中存储的海量数据进行查询和分析。 图1 Hive结构 云搜索服务(Cloud Search
日志。 表1 参数说明 参数 描述 默认值 spark.jobhistory.address JobHistoryServer页面的地址,格式:http(s)://ip:port/jobhistory。例如,将参数值设置为“https://10.92.115.1:26014/jobhistory”。
changelog.enabled 选填 是否写入changelog消息。默认值为false,CDC场景填写为true。 false 表名必须满足Hive格式要求 表名必须以字母或下划线开头,不能以数字开头。 表名只能包含字母、数字、下划线。 表名长度不能超过128个字符。 表名中不能包含空格和特殊字符,如冒号、分号、斜杠等。
3.3.1以及之后版本支持。) 如果需要归集到多个NameService,参考格式如下: hdfs://hacluster,ns1/tmp/logs 给用户指定日志归集的NameService,参考格式如下(默认聚合路径必须在最前面): hdfs://hacluster/tmp/
查看log4j 修改后可以正常提交作业。 图4 提交作业正常 处理步骤 判断用户是在集群外还是集群内使用客户端提交作业。 若在集群内使用客户端,切换到omm用户提交作业。 若在集群外使用客户端,则要使用root用户提交作业。 检查“flink-conf.yaml”文件各参数是否配置正确。