检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“43018”的告警,查看“定位信息”中的角色名以及确认主机名所在的IP地址。 在FusionInsight Manager首页,选择“集群 > 服务 > Spark2x > 实例”,单击上报告警的JobHist
确保集群安装完成,包括HDFS、Yarn、Spark2x和Kafka。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper {zkQuorum}/kafka
shell命令管理密钥 创建密钥 hadoop key create<keyname> [-cipher <cipher>] [-size <size>] [-description <description>] [-attr <attribute=value>] [-provider <provider>]
"node_orderadd", NodeGroup: &nodeGroupParameters, SkipBootstrapScripts: &skipBootstrapScriptsParameters, ScaleWithoutStart: &scaleWithoutStartParameters
息如下表 4,每个SQL的信息如下表5。 表4 session常用信息 参数 描述 user 该session连接的用户 ip session所在的节点IP sessionId session的ID startTime session开始连接的时间 finishTime session结束连接的时间
tData2kafka.sql" # file_path = os.getcwd() + "/../../../../yarnship/insertData2kafka.sql" # file_path = "/opt/client/Flink/flink/con
args) throws Exception { String userPrincipal = "sparkuser"; //指定用于认证的集群用户信息及keytab文件地址。 String userKeytabPath = "/opt/client/user
信息如下表4,每个SQL的信息如下表5。 表4 session常用信息 参数 描述 user 该session连接的用户 ip session所在的节点IP sessionId session的ID startTime session开始连接的时间 finishTime session结束连接的时间
Scala开发环境的基本配置。版本要求:1.5.4。 安装Maven 开发环境的基本配置。用于项目管理,贯穿软件开发生命周期。 7-zip 用于解压“*.zip”和“*.rar”文件,支持7-Zip 16.04版本。 父主题: 准备Flink应用开发环境
while parsing YAML configuration file : security.kerberos.login.principal:pippo” Flink客户端执行命令报错“Could not connect to the leading JobManager” 使用
AgeOfLastShippedOp=0 表2 org.apache.hadoop.hbase.replication.ReplicationLoadSource 方法 描述 getPeerID() 返回类型:String 返回:对端集群的id getAgeOfLastShippedOp()
HBaseStreamingBulkPutExample.py ${ip} 9999 streamingTable cf1 yarn-cluster模式: java/scala版本(类名等请与实际代码保持一致,此处仅为示例),${ip}请使用实际执行nc -lk 9999的命令的机器ip bin/spark-submit
connect=<ZooKeeper集群业务IP:2181/kafka > --list --topic <Topic名称> 添加给某用户Producer权限: ./kafka-acls.sh --authorizer-properties zookeeper.connect=<ZooKeeper集群业务IP:2181/kafka
X.remotenn1”值为对端集群其中一个NameNode实例的业务IP和RPC端口,设置“haclusterX.remotenn2”值为对端集群另外一个NameNode实例的业务IP和RPC端口。按照“IP:port”格式填写。 “dfs.namenode.rpc-address
配置异常。 “/etc/hosts”文件不存在。 该主机的主机名不在文件中配置。 该主机名对应的IP不唯一。 该主机名对应的IP在ipconfig列表中不存在。 该文件中存在一个IP对应多个主机名的情况。 父主题: MRS集群告警处理参考
确保集群安装完成,包括HDFS、Yarn、Spark2x和Kafka。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper {zkQuorum}/kafka
Manager首页,选择“运维 > 告警 > 告警 > ALM-24012 Flume证书文件已过期 > 定位信息”。查看告警上报的实例的IP地址。 检查系统中合法证书文件的有效期,重新生成证书文件。 以root用户登录告警所在节点主机,并执行su - omm切换用户。 执行以下命令进入Flume服务证书目录。
Manager首页,选择“运维 > 告警 > 告警”,选中“ID”为“43009”的告警,查看“定位信息”中的角色名以及确认主机名所在的IP地址。 在FusionInsight Manager首页,选择“集群 > 服务 > Spark2x > 实例”,单击告警上报的JobHist
Manager首页,选择“运维 > 告警 > 告警”,选中“ID”为“43022”的告警,查看“定位信息”中的角色名以及确认主机名所在的IP地址。 在FusionInsight Manager首页,选择“集群 > 服务 > Spark2x > 实例”,单击告警上报的IndexSe
Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“43023”的告警,查看“定位信息”中的角色名以及确认主机名所在的IP地址。 在FusionInsight Manager首页,选择“集群 > 服务 > Spark2x > 实例”,单击上报告警的IndexSe