检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在用户订阅了通知服务之后,当集群出现扩容成功/失败、缩容成功/失败、删除成功/失败、弹性升缩成功/失败的场景下,由MRS管理面通过邮件或短信方式通知对应用户。 管理面检查大数据集群的告警信息,如果大数据集群的告警信息影响到服务的使用,其告警级别达到致命时,则发送信息通知给对应租户。 在用户集
如果将参数“initLimit”和“syncLimit”的参数值均配置为“300”之后,ZooKeeper server仍然无法恢复,则需确认没有其他应用程序正在kill ZooKeeper。例如,参数值为“300”,ticket时长为2000毫秒,即同步限定时间为300*2000ms=600s。
partition replica assignment 通过Manager查询Broker创建Topic相关配置。 经确认,对该Topic操作的应用没有停止。 解决方法参考4。 解决办法 ZooKeeper连接失败导致。 Kafka客户端连接ZooKeeper服务超时。检查客户端到ZooKeeper的网络连通性。
默认取值: 不涉及 safe_mode_kerberos_exclude_components Array of strings 参数解释: 安全模式kerberos排除组件列表。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 表7 NodeConstraints 参数
*)$',x -> upper(x[1]) || x[2] || x[3]); -- Once upon a time ... 在聚合函数中应用Lambda表达式。如使用reduce_agg()计算一个较为复杂的按列求元素和: SELECT reduce_agg(value, 0,
33,按照传统的计算方式,10/100=0.1,远小于该阈值。这就造成这10个节点永远无法得到释放,Map&Reduce任务一直无法获取节点,应用程序无法正常运行。实际需要根据与Map&Reduce任务的有效节点关联的节点总数进行计算,即10/10=1,大于黑名单节点释放阈值,节点被释放。
Consumer$ConsumerThread.run(Consumer.java:40) 可能原因 客户端和服务端Jar版本不一致。 解决办法 修改Consumer应用程序中Kafka jar,确保和服务端保持一致。 父主题: 使用Kafka
666.0 | 2020-11-11 (2 rows) 如果使用了OFFSET,则LIMIT或FETCH FIRST会在OFFSET之后应用于结果集: SELECT * FROM (VALUES 5, 2, 4, 1, 3) t(x) ORDER BY x OFFSET 2 FETCH
eplica可以同步到全部消息。 保存配置,查看集群是否存在配置过期的服务,如果存在,需重启对应服务或角色实例使配置生效。 修改消费者业务应用中fetch.message.max.bytes,使得fetch.message.max.bytes的值大于等于message.max.b
产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 可能引起Manager主备倒换。无法对aos上层应用提供租户及角色管理功能,可能引起无法登录Manager和组件的WebUI。 可能原因 AOS进程异常。 处理步骤 检查AOS进程是否异常。
> ClickHouse > 配置 > 全部配置 > 可靠性”,修改以下参数: 参数 参数说明 allow_transactions 此参数应用于是否支持事务, 取值范围:0,1。 默认值为0,不支持事务。 设置参数值为1,保存配置,重启服务生效支持事务。 _clickhouse.metrika
key或order by字段作为去重唯一键。如果未指定主键,只指定了order by建表属性,去重键以order by字段为准。 数据去重的key需要提前在应用中进行sharding计算,保证相同的key会sharding到同一个shard,才能保证后续相同的key字段数据sharding到同一个shard进行数据的精确去重。
executor.extraJavaOptions”,增加如下配置: -Dlog4j.configuration.watch=true 提交用户应用后,修改“spark.executor.extraJavaOptions”中“-Dlog4j.configuration”参数指定的log
executor.extraJavaOptions”,增加如下配置: -Dlog4j.configuration.watch=true 提交用户应用后,修改“spark.executor.extraJavaOptions”中“-Dlog4j.configuration”参数指定的log
产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 可能引起Manager主备倒换。Manager和组件WebUI服务不可用,无法对Web上层应用正常提供集群管理功能,可能引起无法登录Manager和组件的WebUI。 可能原因 Tomcat目录权限异常,Tomcat进程异常。 处理步骤
index文件,默认配置为10MB,可通过修改log.index.size.max.bytes来调整大小),是否会影响Kafka正常运行。 Consumer的并发量 在一个应用中,同一个Group的Consumer并发量建议与Topic的Partition个数保持一致,保证每个Consumer对应消费一个Part
index文件,默认配置为10MB,可通过修改log.index.size.max.bytes来调整大小),是否会影响Kafka正常运行。 Consumer的并发量 在一个应用中,同一个Group的Consumer并发量建议与Topic的Partition个数保持一致,保证每个Consumer对应消费一个Part
/Flink/flink/conf/flink-conf.yaml”中的参数“restart-strategy”指定,为全局配置,还可以在应用代码中动态指定,会覆盖全局配置,重启策略包括失败率(failure-rate)和两种默认策略,默认策略为如下: 无重启(No restar
ZooKeeper垃圾回收(GC)时间 查看ZooKeeper每分钟的垃圾回收时间统计值是否大于告警阈值(默认12秒)。 是,执行4。 否,执行8。 请先排查应用程序是否存在内存泄露等问题。 在FusionInsight Manager首页,选择“集群 > 待操作集群的名称 > 服务 > ZooKeeper
kafka。 图5 查看user.keytab文件 发现jaas文件和user.keytab文件中principal不对应。 该情况是由于应用程序自动定时更新Jaas文件,但是有两个不同的进程在进行更新,一个进程写入正确的Principal而另一个却写入了错误的Principal,以至于程序时而正常,时而异常。