检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
checkServiceDetail.log HBase服务启动是否成功的检查日志。 hbase.log HBase服务健康检查脚本以及部分告警检查脚本执行所产生的日志。 sendAlarm.log HBase告警检查脚本上报告警信息日志。 hbase-haCheck.log HMaster主备状态检测日志。 stop
connection未正常关闭。 HBase WAL未正常滚动,导致产生超大WAL。 HBase Netty连接存在内存泄漏。 HBase健康检查脚本调用超时导致误上报服务不可用告警。 HBase支持过载保护流控和告警。 HBase主备倒换后,RSGroup显示DEAD REGIONSERVERS错误。
调测Hive Python3样例程序 Python3样例工程的命令行形式运行 赋予“python3-examples”文件夹中脚本的可执行权限。在命令行终端执行以下命令: chmod +x python3-examples -R。 将“python3-examples/pyCLI_nosec
内部表时指定Location,则创建失败。 开启该功能后,如果数据库中已存在建表时指向非当前默认warehouse目录的表,在执行建库、表脚本迁移、重建元数据操作时需要特别注意,防止错误。 操作步骤 登录FusionInsight Manager页面,选择“集群 > 服务 > Hive
der WebUI确认或通过查询server端日志确认。 参数选项方式: 通过直接添加具体配置项的参数调用脚本。 作业模板方式: 修改作业模板中所有配置项的参数值,调用脚本时引用修改后的作业模板文件。 Loader客户端安装后,系统自动在“Loader客户端安装目录/loader-tools-1
der WebUI确认或通过查询server端日志确认。 参数选项方式: 通过直接添加具体配置项的参数调用脚本。 作业模板方式: 修改作业模板中所有配置项的参数值,调用脚本时引用修改后的作业模板文件。 Loader客户端安装后,系统自动在“Loader客户端安装目录/loader-tools-1
Kafka用户 kinit命令使用的用户为登录Manager的用户,此用户需要具有Kafka用户组相关权限。 执行Python3.x脚本样例。 脚本样例: producer: from kafka import KafkaProducer producer = KafkaProd
非复制表和物化视图迁移: 针对非复制表和物化视图采用调用remote函数方式进行数据迁移。 上述迁移的操作步骤通过迁移工具脚本做了封装处理,只需修改相关配置文件执行迁移脚本即可完成一键式迁移操作,具体可以参考操作步骤说明。 前提条件 待迁移的源ClickHouse集群状态正常,并且源集群
/opt/FlumeClient/fusioninsight-flume-Flume组件版本号/bin ./flume-manage.sh stop 执行脚本后,显示如下信息,说明成功的停止了Flume客户端: Stop Flume PID=120689 successful.. Flume客户
ou=Users,dc=hadoop,dc=com”的方法如下: ./ldapserver_unlockUsers.sh krbkdc 运行脚本之后,在ROOT_DN_PASSWORD之后输入krbkdc用户密码,显示如下结果,说明解锁成功: Unlock user krbkdc successfully
修改Manager参数日志 backup.log OMS备份脚本运行日志 supressionAlarm.log 告警脚本运行日志 om.log 生成om证书日志 backupplugin_ctl.log 备份恢复插件进程启动日志 getLogs.log 采集日志脚本运行日志 backupAuditLogs
checkServiceDetail.log HBase服务启动是否成功的检查日志。 hbase.log HBase服务健康检查脚本以及部分告警检查脚本执行所产生的日志。 sendAlarm.log HBase告警检查脚本上报告警信息日志。 hbase-haCheck.log HMaster主备状态检测日志。 stop
调测Hive Python样例程序 Python样例工程的命令行形式运行 赋予“python-examples”文件夹中脚本的可执行权限。在命令行终端执行以下命令: chmod +x python-examples -R 在python-examples/pyCLI_nosec.
Presto的coordinator未真正启动即被终止了,不再打印其他日志,查看Presto的其他日志也未发现原因。 原因分析 Presto的健康检查脚本的端口检查逻辑中未做好端口的区分。 处理步骤 使用工具分别登录集群的Master节点执行如下操作。 执行如下命令编辑文件。 vim /op
/opt/FlumeClient/fusioninsight-flume-Flume组件版本号/bin ./flume-manage.sh stop 执行脚本后,显示如下信息,说明成功的停止了Flume客户端: Stop Flume PID=120689 successful.. Flume客户
arn注册Application之后读取,这就导致yarn-cluster模式设置的应用名不生效。 解决措施: 在spark-submit脚本提交任务时用--name设置应用名和sparkconf.setAppName(appname)里面的应用名一样。 比如代码里设置的应用名为Spark
property 如果加密参数是用于Flume Server,那么需要到相应的Flume Server所在节点执行加密。需要使用omm用户执行加密脚本进行加密。 针对MRS 3.x之前版本加密路径为“/opt/Bigdata/MRS_XXX/install/FusionInsight-F
调测Hive Python3样例程序 Python3样例工程的命令行形式运行 赋予“python3-examples”文件夹中脚本的可执行权限。在命令行终端执行以下命令: chmod +x python3-examples -R。 在python3-examples/pyCLI_sec
c,否则添加节点IP地址到该文件中: cd /root/MRS_3x_Patch_Diskmgt_v2.1_20230322/ vim ips.ini 执行脚本卸载补丁,需要保证私钥文件“/tmp/xxxx.pem”的权限是600: 密钥方式: sh install.sh -t uninstall
/var/log/Bigdata/clickhouse/clickhouseServer/postinstall.log ClickHouse的postinstall.sh脚本调用日志。 /var/log/Bigdata/clickhouse/balance/start.log ClickHouseBalancer服务启动日志文件路径。