检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
值为0。 end_time Long 否 查询结束时间,为unix时间戳格式,默认值为系统当前时间。 limit Integer 否 单页返回消息数,默认值为10。 offset Integer 否 查询的页码,默认值为1。 请求消息 请求参数 无 请求示例 无。 响应消息 响应参数
描述 offset 否 Integer 偏移量,表示从此偏移量开始查询, offset大于等于0。 limit 否 Integer 当次查询返回的最大消费组成员个数,默认值为10,取值范围为1~50。 host 否 String 消费者地址。 member_id 否 String 消费者ID。
Topic的所有消息分布式存储在各个分区上,分区在每个副本存储一份全量数据,副本之间的消息数据保持同步,任何一个副本不可用,数据都不会丢失。 每个分区都随机挑选一个副本作为Leader,该分区所有消息的生产与消费都在Leader副本上完成,消息从Leader副本复制到其他副本(Follower)。
确保分区平衡的目标Broker磁盘容量充足,在磁盘存储统计中查看每个Broker的可用磁盘容量。如果目标Broker磁盘剩余容量接近分区平衡迁移到该Broker上的数据量,为了给目标Broker上的消息生产预留存储空间,应先进行磁盘扩容,再进行分区平衡。 使用自动平衡修改副本数 登录管理控制台。 在管理控制台左上角单击,选择Kafka实例所在的区域。
设置弹性IP地址。 单击“创建弹性IP”,跳转到“购买弹性公网IP”页面,购买弹性IP地址,具体操作请参考申请弹性公网IP。 购买完成后,返回开启公网页面。 单击“弹性IP地址”后的,然后在下拉框中选择和代理数量相同的弹性IP地址,单击。 您可以在实例的“后台任务管理”页面,查看
描述 offset 否 Integer 偏移量,表示从此偏移量开始查询, offset大于等于0。 limit 否 Integer 当次查询返回的最大消费组id个数,默认值为10,取值范围为1~50。 group 否 String 消费组名过滤查询,过滤方式为字段包含过滤。 topic
ConsumerRecords<String, String> records = receiver.receiveMessage(); Iterator<ConsumerRecord<String, String>> iter = records.iterator();
"allFailure" : "kafka" } 响应消息 响应参数 当参数action为delete,allFailure值为kafka时,响应返回为空表示删除成功。参数说明见表3。 表3 参数说明 参数 类型 说明 results Array 修改实例的结果。 表4 results参数说明
确保分区平衡的目标Broker磁盘容量充足,在磁盘存储统计中查看每个Broker的可用磁盘容量。如果目标Broker磁盘剩余容量接近分区平衡迁移到该Broker上的数据量,为了给目标Broker上的消息生产预留存储空间,应先进行磁盘扩容,再进行分区平衡。 自动平衡 登录管理控制台。 在管理控制台左上角单击,选择Kafka实例所在的区域。
project_id 是 String 项目ID,获取方式请参见获取项目ID。 connector_id 是 String 实例转储ID。 请参考查询实例返回的数据。 请求参数 无 响应参数 状态码: 200 表2 响应Body参数 参数 参数类型 描述 tasks Array of tasks
network.threads、num.replica.fetchers)过多,导致CPU繁忙。 分区设置不合理,所有的生产和消费都集中在某个节点上,导致CPU利用率高。 磁盘写满的原因 业务数据增长较快,已有的磁盘空间不能满足业务数据需要。 节点内磁盘使用率不均衡,生产的消息集中在某个分区,导致分区所在的磁盘写满。
available_zones Array of strings 实例节点所在的可用区,返回“可用区ID”。 available_zone_names Array of strings 实例节点所在的可用区名称,返回“可用区名称”。 total_storage_space Integer 总共消息存储空间,单位:GB。
同,所以简洁起见将这两部分省略。 请求方法 HTTP请求方法(也称为操作或动词),它告诉服务你正在请求什么类型的操作。 GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。
其他参数保持默认,如果想要了解更多的参数信息,请参考购买终端节点。 图5 终端节点参数设置 单击“立即购买”,进入规格确认页面。 确认无误后,提交请求。 购买成功后,返回终端节点页面,查看终端节点状态是否为“已接受”,“已接受”表示终端节点已成功连接至终端节点服务。 图6 查看终端节点状态 单击终端节点ID
内存使用率原始值如果连续3个周期>85%,触发紧急告警,每10分钟告警一次。 一键告警开启后,支持修改告警策略,具体请参考一键告警。 返回Kafka实例的“一键告警”页面,单击,查看告警规则的状态已变为“开启”。 该Kafka实例所在Region中如果存在其他Kafka实例,也会开启对应的告警规则。
增加消费者每次拉取消息的数量:拉取数据/处理时间 >= 生产速度。 生产者端 生产消息时,给消息Key加随机后缀,使消息均衡分布到不同分区上。 在实际业务场景中,为消息Key加随机后缀,会导致消息全局不保序,需根据实际业务判断是否适合给消息Key加随机后缀。 服务端 合理设置To
project_id 是 String 项目ID,获取方式请参见获取项目ID。 connector_id 是 String 实例转储ID。 请参考查询实例返回的数据。 task_id 是 String 转储任务ID。 表2 Query参数 参数 是否必选 参数类型 描述 topic-info 否
afka实例开启IPv6后,客户端可以使用IPv6地址连接实例。 创建VPC和子网的操作指导请参考创建虚拟私有云和子网,若需要在已有VPC上创建和使用新的子网,请参考为虚拟私有云创建新的子网。 安全组 不同的Kafka实例可以重复使用相同的安全组,也可以使用不同的安全组,请根据实际需要进行配置。
确认消费就会被标记删除。 AMQP-0-9-1版本:支持。 消息堆积 支持 支持。考虑吞吐因素,Kafka的堆积效率比RabbitMQ总体上要高。 支持 持久化 支持 支持 支持 消息追踪 支持 不支持 3.8.35版本:不支持。 AMQP-0-9-1版本:支持。 消息过滤 支持
维护时间窗结束时间,格式为HH:mm:ss。 维护时间窗开始和结束时间必须为指定的时间段,可参考查询维护时间窗时间段。 结束时间在开始时间基础上加四个小时,即当开始时间为22:00:00时,结束时间为02:00:00。 该参数不能单独为空,若该值为空,则开始时间也为空。系统分配一个默认结束时间06:00:00。