检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ndowJoin.jar 通过参数-m yarn-cluster使作业以单机模式运行,-yn表示TaskManager的数量。 flink脚本的其他参数可以通过以下命令获取: bin/flink --help 注意事项 如果yarn-session.sh使用-z配置特定的zook
out HDFS运行环境信息日志。 hadoop.log Hadoop客户端操作日志。 hdfs-period-check.log 周期运行的脚本的日志记录。包括:自动均衡、数据迁移、JournalNode数据同步检测等。 <process_name>-<SSH_USER>-<DATE>-<PID>-gc
是 String 参数解释: 自定义自动化脚本执行失败后,是否继续执行后续脚本和创建集群。建议您在调试阶段设置为“continue”,无论此自定义自动化脚本是否执行成功,则集群都能继续安装和启动。由于缩容成功无法回滚,因此缩容后执行的脚本“fail_action”必须设置为“continue”。
安全模式(开启Kerberos认证)执行kinit命令,普通模式(关闭Kerberos认证)无需执行: kinit clickhouseuser 运行脚本,导入数据。 ./ClickHouse/clickhouse_insert_tool/clickhouse_insert_tool.sh
out HDFS运行环境信息日志。 hadoop.log Hadoop客户端操作日志。 hdfs-period-check.log 周期运行的脚本的日志记录。包括:自动均衡、数据迁移、JournalNode数据同步检测等。 <process_name>-<SSH_USER>-<DATE>-<PID>-gc
文件名中包含的日期格式 file.date.format = yyyyMMdd 调用脚本输入的日期参数 parameter.date.format = yyyyMMdd 顺延的天数 date.day = 1 例如,脚本传入的日期参数是20160220,则通过加法计算,得到的结果是20160221。
文件名中包含的日期格式 file.date.format = yyyyMMdd 调用脚本输入的日期参数 parameter.date.format = yyyyMMdd 顺延的天数 date.day = 1 例如,脚本传入的日期参数是20160220,则通过加法计算,得到的结果是20160221。
id”,则需要执行如下命令强行删除“/system/balancer.id”,再次执行start-balancer.sh脚本即可。 hdfs dfs -rm -f /system/balancer.id 用户在执行了6的脚本后,会在客户端安装目录“/opt/client/HDFS/hadoop/logs”目录下
id”,则需要执行如下命令强行删除“/system/balancer.id”,再次执行start-balancer.sh脚本即可。 hdfs dfs -rm -f /system/balancer.id 用户在执行了6的脚本后,会在客户端安装目录“/opt/client/HDFS/hadoop/logs”目录下
*从Kafka的一个或多个主题消息。 * <checkPointDir>是Spark Streaming检查点目录。 * <brokers>是用于自举,制作人只会使用它来获取元数据 * <topics>是要消费的一个或多个kafka主题的列表 * <batchTime>是Spark S
${BIGDATA_HOME}/FusionInsight_Flink_*/install/FusionInsight-Flink-*/flink/sbin,进入Flink脚本目录。 执行命令sh proceed_ha_ssl_cert.sh,重新生成HA证书,等待1分钟,观察此告警是否被清除。 是,执行8。 否,执行9。
从Kafka的一个或多个主题消息。 * <checkPointDir>是Spark Streaming检查点目录。 * <brokers>是用于自举,制作人只会使用它来获取元数据 * <topics>是要消费的一个或多个kafka主题的列表 * <batchTime>是Spark S
从Kafka的一个或多个主题消息。 * <checkPointDir>是Spark Streaming检查点目录。 * <brokers>是用于自举,制作人只会使用它来获取元数据 * <topics>是要消费的一个或多个kafka主题的列表 * <batchTime>是Spark S
*从Kafka的一个或多个主题消息。 * <checkPointDir>是Spark Streaming检查点目录。 * <brokers>是用于自举,制作人只会使用它来获取元数据 * <topics>是要消费的一个或多个kafka主题的列表 * <batchTime>是Spark S
通过登录FusionInsight Manager浮动IP节点,执行sh ${BIGDATA_HOME}/om-server/om/sbin/status-oms.sh脚本来查看当前Manager的双机信息。 执行sh ${BIGDATA_HOME}/om-server/OMS/workspace0/ha/m
omm命令切换到omm,用户进入“${BIGDATA_HOME}/om-server/om/sbin/”目录,并执行status-oms.sh脚本检查主备Manager的floatip资源和gaussDB资源是否如下图所示的状态: 是,在告警列表中找到该告警,手工清除该告警。 否,执行5。
String 参数解释: 自定义自动化脚本执行失败后,是否继续执行后续脚本和创建集群。建议您在调试阶段设置为“continue”,无论此自定义自动化脚本是否执行成功,则集群都能继续安装和启动。 约束限制: 由于缩容成功无法回滚,因此缩容后执行的脚本“fail_action”必须设置为“continue”。
name=hbaseuser userKeytabName=user.keytab krb5ConfName=krb5.conf 在“/opt/test”根目录新建脚本“run.sh”,修改内容如下并保存: 当前以com.huawei.bigdata.hbase.examples.TestMain为举例,具体以实际样例代码为准。
${BIGDATA_HOME}/FusionInsight_Flink_*/install/FusionInsight-Flink-*/flink/sbin,进入Flink脚本目录。 执行命令sh proceed_ha_ssl_cert.sh,重新生成HA证书,等待1分钟,观察此告警是否被清除。 是,执行8。 否,执行7。
-noout -text -in flume_sChat.crt 根据需要,选择业务空闲期,执行6~7更新证书。 执行以下命令进入Flume脚本目录。 cd ${BIGDATA_HOME}/FusionInsight_Porter_*/install/FusionInsight-Flume-*/flume/bin