检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
conf”不能共用。 用户可根据实际需要配置“conf”目录下的“log4j.properties”文件。 检查客户端节点网络连接。 在安装客户端过程中,系统会自动配置客户端节点“hosts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录
kafka-python pip3 install gssapi 安装成功后,执行以下命令配置环境变量。 source 客户端安装目录/bigdata_env 执行以下命令认证当前用户。 kinit Kafka用户 kinit命令使用的用户为登录Manager的用户,此用户需要具有Kafka用户组相关权限。
COMPACTION 命令功能 压缩( compaction)用于在MergeOnRead表将基于行的log日志文件转化为parquet列式数据文件,用于加快记录的查找。 命令格式 SCHEDULE COMPACTION on tableIdentifier |tablelocation;
是,执行7。 否,执行9。 参考5~6请检查其他SlapdServer实例状态是否正常。 是,请联系MRS集群管理员评估是否需要扩容SlapdServer实例,然后执行8。 否,请修复故障的SlapdServer实例,然后执行8。 检查该告警是否恢复。 是,处理完毕。 否,执行9。
使用具有Doris管理权限的用户通过MySQL客户端连接到Doris。 执行以下命令创建数据库example_db: create database if not exists example_db; 执行以下命令查看数据库信息: SHOW DATABASES; mysql> SHOW DATABASES;
集群成功停止。 登录主管理节点。 执行以下命令切换用户: sudo su - omm 执行以下命令,防止超时退出。 TMOUT=0 执行以下命令,切换目录。 cd ${BIGDATA_HOME}/om-0.0.1/tools 执行以下命令,更新集群密钥。 sh updateRootKey
恢复Flink元数据 操作场景 在用户意外修改、删除或需要找回数据时,系统管理员需要对Flink进行重大操作(如升级或迁移等)后,系统数据出现异常或未达到预期结果,导致Flink组件全部故障无法使用,或者迁移数据到新集群的场景中,需要对Flink元数据进行恢复数据操作。 系统管理员可以通过FusionInsight
on.sh脚本执行时添加上传目录,例如在执行▪命令4:之前,应首先执行yarn-session.sh -t config/ ***。 四种类型实际命令示例,以ReadFromKafka为例,集群域名为“HADOOP.COM”: 命令1: bin/flink run --class
establish the security context。 原因分析 MRS集群开启了Kerberos认证但是无法提交作业,所以首先检查权限配置问题,检查发现未正确配置“/opt/client/Flink/flink/conf/flink-conf.yaml”中的参数。 图1 flink-conf
如果要在HDFS客户端通过命令行使用DiskBalancer功能,其接口如下: 表3 DiskBalancer功能的接口说明 命令格式 说明 hdfs diskbalancer -report -top <N> N可以指定为大于0的整数,先利用此条命令查询集群中最需要执行磁盘数据均衡的Top
执行如下命令启动session。 cd 客户端安装目录/Flink/flink/conf/ yarn-session.sh -nm "session-name" -d 如果是安全集群,使用以下命令进行用户认证,如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 大量应用任务运行失败。 运行失败的任务需要重新提交。 可能原因 任务出于某种错误运行失败。 处理步骤 检查告警详情。 在FusionInsight Manager界面,选择“运维 > 告警 > 告警”,打开告警页面。 查看“Yarn上运行失败的
ALM-50207 FE的MySQL端口连接数与允许最大连接数的比值超过阈值 告警解释 系统每30秒周期性检查MySQL端口连接数,当检测到当前连接数与设置的FE最大端口连接数的比值超出阈值(默认值为95%)时产生该告警。当前集群设置的FE最大端口连接数由参数“qe_max_co
ALM-25007 SlapdServer连接数超过阈值 告警解释 系统每30秒周期性检查SlapdServer节点的进程连接数,并把实际进程连接数和阈值相比较,当进程连接数连续多次(默认值为5)超过设定阈值(默认值为1000)时,系统将产生此告警。 平滑次数可配置,当平滑次数为
对系统的影响 FGC时间超出阈值,会影响到数据的读写。 可能原因 该节点实例内存使用率过大,或配置的堆内存不合理,导致进程GC频繁。 处理步骤 检查GC时间 用户可通过“运维> 告警 > 阈值设置 > 待操作集群的名称 > Impala > 进程FGCT >Catalog进程FGCT(
在Hive Beeline命令行执行以下命令开启Hive动态分区: set hive.exec.dynamic.partition=true; set hive.exec.dynamic.partition.mode=nonstrict; 执行以下命令创建一个临时表,用于存储去重后的数据:
需要回退 登录集群主OMS节点,执行以下命令。 su - omm cd /opt/Bigdata/patches/MRS_3.1.0.0.16/package sh rollback_package.sh 登录集群备OMS节点,执行以下命令。 su - omm cd /opt/B
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,使用java -cp命令运行代码(类名与文件名等请与实际代码保持一致,此处仅为示例): 运行Java样例代码: java -cp $SPARK_HOME/jars
CLEAN_FILE 命令功能 用于清理Hudi表目录下的无效数据文件。 命令格式 call clean_file(table => '[table_name]', mode=>'[op_type]', backup_path=>'[backup_path]', start_in
WriteIntoKafkaScala { def main(args: Array[String]) { // 打印出执行flink run的参考命令 System.out.println("use command as: ") System.out.println("