检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kafka社区发现漏洞并发布修复方案后,分布式消息服务Kafka版一般在1个月内进行修复,修复策略与社区保持一致。 操作系统紧急漏洞按照操作系统修复策略和流程对外发布,一般在一个月内提供修复方案,用户自行修复。 其他漏洞: 按照版本正常升级流程解决。 修复声明 为了防止客户遭遇不当风险,除漏洞
副本(Follower)。 Kafka的主题和分区属于逻辑概念,副本与代理属于物理概念。下图通过消息的生产与消费流向,解释了Kafka的分区、代理与主题间的关系。 图1 Kafka消息流 老化时间 消息的最长保留时间,消费者必须在此时间结束前消费消息,否则消息将被删除。删除的消息,无法被消费。
其他接口 查询可用区信息 查询产品规格列表 查询维护时间窗时间段 查询实例在CES的监控层级关系 查询实例在CES的监控层级关系 查询配额 父主题: API V1
其他接口 查询维护时间窗时间段 查询可用区信息 查询产品规格列表 查询实例在CES的监控层级关系 查询Kafka产品规格核数 父主题: API V2(推荐)
是否作为定时任务执行。若非定时执行,is_schedule和execute_at字段可为空。若为定时执行,is_schedule为true,execute_at字段非空。 execute_at 否 Long 定时时间,格式为Unix时间戳,单位为毫秒 响应参数 状态码: 200 表3 响应Body参数
为什么Console页面上,消息查询查不到消息? Kafka消息堆积了怎么办? 消息超过老化时间,消息仍存在的原因 Kafka实例是否支持延迟消息? 如何查看堆积消息数? 为什么消息创建时间显示1970? 如何修改message.max.bytes参数? 为什么offset不连续?
版本发布说明 实例版本 发布时间 新增/优化特性 1.1.0和2.7 2023年7月 控制台支持查看重平衡日志 1.1.0和2.7 2023年4月 控制台支持手动创建消费组 1.1.0和2.7 2023年2月 控制台支持客户端、Topic级别生产消费流量控制 1.1.0和2.7 2022年12月
重平衡日志默认存储时间为七天,如果需要延长保留天数,可以在LTS控制台修改日志组的存储时间。 重平衡日志开启后会在LTS控制台创建对应的日志组、日志流和仪表盘。使用期间按照日志量收费,收费标准请参照LTS价格详情。 前提条件 开启重平衡日志需要您的账号拥有LTS服务的创建日志组和日志流的权限。
版本生命周期 分布式消息服务Kafka版的版本生命周期如表1所示。 表1 版本生命周期 消息引擎类型 版本名称 状态 商用发布时间 EOM时间 EOS时间 Kafka 1.1.0 在售 2018年5月 暂无计划 暂无计划 2.3.0 EOM 2020年6月 2023年5月5日 2025年9月
ID。 vpc_name String VPC的名称。 created_at String 完成创建时间。格式为时间戳,指从格林威治时间 1970年01月01日00时00分00秒起至指定时间的偏差总毫秒数。 product_id String 产品标识。 security_group_id
在左侧导航栏单击“后台任务管理”,进入后台任务管理页面。 在“后台任务”/“定时任务”页签,单击时间段下拉框,选择搜索时间,在搜索框中输入关键字,按“Enter”,界面显示相应时间段内启动的任务。 在后台任务管理页面,您还可以执行以下操作: 单击,刷新任务状态。 单击“删除”,
fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。 Topic的数据老化时间设置过大,保存了过多的历史数据,容易导致磁盘写满。
1-168. Kafka实例创建Topic的老化时间必须在1-168范围内。 请检查Topic老化时间 400 DMS.00400106 Invalid maintenance time window. 维护时间窗参数非法。 请检查维护时间窗参数 400 DMS.00400107 The
管理消息 查看Kafka消息 修改Kafka消息老化时间 删除Kafka消息 诊断Kafka消息积压
消息积压诊断预检查 创建消息积压诊断任务 查询消息积压诊断报告列表 批量删除消息积压诊断报告 查询诊断报告详情 其他接口 包括: 查询维护时间窗时间段 查询可用区信息 查询产品规格列表 查询实例在CES的监控层级关系 查询Kafka产品规格核数
ID。 vpc_name String VPC的名称。 created_at String 完成创建时间。 格式为时间戳,指从格林威治时间 1970年01月01日00时00分00秒起至指定时间的偏差总毫秒数。 subnet_name String 子网名称。 subnet_cidr String
消息管理 查询消息 查询分区指定偏移量的消息 查询分区指定时间段的消息 查询分区最早消息的位置 查询分区最新消息的位置 Kafka删除消息 父主题: API V2(推荐)
创建主题和添加订阅。创建完成后,返回“创建告警规则”页面,在“通知对象”后单击,然后选择创建的告警通知主题。 说明: 在添加订阅后,对应的订阅终端会收到订阅通知,用户要选择确认订阅,后续才能收到告警信息。 通知周期 保持默认,即如果触发告警,每天发送告警通知。 生效时间 告警规则仅在生效时间内发送通知消息,保持默认。
NULL 默认值:换行符“\n”。 deliver_time_interval Integer 根据用户配置的时间,周期性的将数据导入OBS,若某个时间段内无数据,则此时间段不会生成打包文件。 取值范围:30~900,缺省值:300,单位:秒。 说明: 使用OBS通道转储流式数据时该参数为必选配置。
是否为contoller节点。 version Boolean 服务端版本。 register_time Long broker注册时间,为unix时间戳格式。 is_health Boolean Kafka实例节点的连通性是否正常。 响应示例 { "cluster": {