检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
3:00首次尝试自动续费,如果扣款失败,每天凌晨3:00尝试一次,直至Kafka实例到期或者续费成功。 开通自动续费后,还可以手动续费该Kafka实例。手动续费后,自动续费仍然有效,在新的到期时间前的第7天开始扣款。 自动续费的到期前7日自动扣款属于系统默认配置,您也可以根据需要
实例状态说明 表1 实例状态说明 状态 说明 CREATING 申请实例后,在实例状态进入运行中之前的状态。 RUNNING 实例正常运行状态。在这个状态的实例可以运行您的业务。 ERROR 实例处于故障的状态。 RESTARTING 实例正在进行重启操作。 STARTING 实例从已冻结到运行中的中间状态。
过offset,系统将在十分钟后自动删除该消费组。 如果“auto.create.groups.enable”设置为“false”,系统不会自动删除消费组。如果需要删除消费组,需要您手动删除。 如果消费组从未提交过offset,当Kafka实例重启后,该消费组会被删除。 创建Kafka消费组
cluster 否 高I/O kafka-15 3 kafka.16u32g.cluster 否 高I/O 购买完成后,在实例详情页获取Kafka实例的内网明文连接地址。 购买实例后,创建如表2所示Topic,创建步骤请参考创建Kafka Topic。 表2 Topic参数 名称 是否同步复制
String 是 Topic名称。 请求消息 请求参数 表2 参数说明 参数 类型 必选 说明 partition Integer 是 期望调整分区后的数量,必须大于当前分区数量,小于等于100。 请求示例 { "partition": 3 } 响应消息 响应参数 无 响应示例 无
不影响Kafka实例持续提供服务。 AZ内实例容灾 同一个AZ内,Kafka实例通过副本冗余方式实现实例容灾,当检测到leader副本故障后,快速完成副本选主,保障Kafka实例持续提供服务。 数据容灾 通过支持数据多副本方式实现数据容灾。 跨AZ容灾部署架构 DMS for K
Connect任务时,如果需要做Kafka实例迁移,可以同时向两个Kafka实例生产消息,源实例中的消息可继续消费,待源实例的消息数据全部被消费完或老化后,业务可迁移到新的Kafka实例。 父主题: 实例问题
再付费,按照Kafka实例实际使用时长计费。关于两种计费模式的详细介绍请参见分布式消息服务Kafka版计费模式概述。 在购买Kafka实例后,如果发现当前计费模式无法满足业务需求,您还可以变更计费模式。详细介绍请参见变更计费模式概述。 计费项 分布式消息服务Kafka版的计费项由
制,数据默认保留3天)。该场景适用于对数据不能丢的业务场景,但是会导致生产业务失败。 自动删除策略 该策略场景下磁盘使用到达容量阈值95%后,依旧可以正常生产和消费消息,但是会删除最早的10%的消息,以保证磁盘容量充足。该场景优先保障业务不中断,数据可能会丢失。 以上两种策略需要
Manager上显示不一致? 为什么实例中存在默认名为__trace和__consumer_offsets的Topic? 客户端删除消费组后,在Kafka Manager中仍可以看到此消费组?
法结束。如果分区平衡一直无法结束,请联系客服处理。 分区平衡任务启动后,不能删除正在进行分区平衡的Topic,否则会导致分区平衡任务无法结束。 分区平衡任务启动后,无法修改Topic的分区数。 分区平衡任务启动后,无法手动停止任务,需要等到任务完成。 已设置了一个定时分区平衡任务
String Topic名称。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 partition 否 Integer 期望调整分区后的数量,必须大于当前分区数量,小于等于 100。 响应参数 无 请求示例 增加Topic分区数。 POST https://{endpoin
properties (可选)MirrorMaker开启后,如果在源集群上新建了Topic,如需对此Topic进行数据同步,则需重启MirrorMaker,重启步骤参考6。也可配置自动同步新增Topic,按需增加如表1所示配置后,无需重启MirrorMaker,即可周期性同步新增Topic。其中,“refresh
系统进入“服务配额”页面。 单击“申请扩大配额”。 在“新建工单”页面,根据您的需求,填写相关参数。 其中,“问题描述”项请填写需要调整的内容和申请原因。 填写完毕后,勾选协议并单击“提交”。
业务系统日常运行中可能出现一些小概率的异常事件。部分可靠性要求非常高的业务系统,除了要求实例高可用,还要求数据安全、可恢复,以便在实例发生异常后能够使用备份数据进行恢复,保障业务正常运行。 - 父主题: 安全
单机实例不支持创建转储的Smart Connect任务。 一个实例最多创建18个Smart Connect任务。 Smart Connect任务创建成功后,不支持修改任务参数。 前提条件 已开启Smart Connect。 已创建Kafka实例,且实例状态为“运行中”。 已创建的OBS桶和Kafka实例需要在同一个区域。
本,旨在为用户提供便捷高效的消息队列。业务无需改动即可快速迁移上云,为您节省维护和使用成本。 一键式部署,免去集群搭建烦恼 您只需要在实例管理界面选好规格配置,提交订单。后台将自动创建部署完成一整套Kafka实例。 兼容开源,业务零改动迁移上云 兼容社区版Kafka的API,具备原生Kafka的所有消息处理特性。
Topic分区数,设置消费的并发数。 retention_time Integer 消息老化时间。 sync_replication Boolean 是否开启同步复制,开启后,客户端生产消息时相应的也要设置acks=-1,否则不生效。 默认关闭。 sync_message_flush Boolean 是否使用同步落盘。同步落盘会导致性能降低。
Kafka实例的ZK地址是什么? Kafka实例依赖ZK进行管理,开放ZK可能引发误操作导致业务受损,ZK仅Kafka内部使用,不对外提供服务。 您可使用Kafka开源客户端连接Kafka实例,调用原生API生产与消费消息。 父主题: 实例问题
在左侧导航栏单击“重平衡日志”,进入“重平衡日志”页面。 单击“开启日志”,页面右上角显示“重平衡日志开启成功”时,表示开启重平衡日志成功。 开启重平衡日志后,会在LTS控制台创建对应的日志组和日志流。 查看重平衡日志 登录管理控制台。 在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。