检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
批量重启、删除实例 当前页面API为历史版本API,未来可能停止维护。请使用批量重启或删除实例。 功能介绍 批量重启或删除实例。 在实例重启过程中,客户端的生产与消费消息等请求会被拒绝。 实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。 URI POST /v1.0
批量重启或删除实例 功能介绍 批量重启或删除实例。 在实例重启过程中,客户端的生产与消费消息等请求会被拒绝。 实例删除后,实例中原有的数据将被删除,且没有备份,请谨慎操作。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/instances/action
通过以下任意一种方法,重启Kafka实例。 勾选Kafka实例名称左侧的方框,可选一个或多个,单击信息栏左上侧的“重启”。 在待重启Kafka实例所在行,单击“重启”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“重启”。 在“重启实例”对话框中,单击“是”,完成重启Kafka实例。
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
fka实例列表页面。 通过以下任意一种方法,重启Kafka Manager。 在待重启Manager的Kafka实例所在行,单击“更多 > 重启Manager”。 单击Kafka实例名称,进入实例详情页面。单击右上角的“更多 > 重启Manager”。 单击“是”。 您可以在实例
修改企业项目,是否会导致Kafka重启? 修改企业项目不会导致Kafka重启。 父主题: 实例问题
修改自动创建Topic的配置,会触发重启吗? 开启或者关闭“Kafka自动创建Topic”,会导致Kafka重启。 父主题: Topic和分区问题
启动未启动的Smart Connect任务/重启已暂停或者运行中的Smart Connect任务 功能介绍 用于启动未启动的Smart Connect任务以及重启已暂停或者运行中的Smart Connect任务。注意,重启Smart Connect任务将重置同步进度,并重新开始同步任务。
Manager中依然存在。 问题原因:Kafka Manager存在缓存。 处理方法:登录Kafka控制台,在实例所在行,单击“更多 > 重启Manager”。 父主题: Kafka Manager问题
考Kafka配置进行修改。 Kafka实例的参数分为动态参数和静态参数: 动态参数:动态参数修改成功后,无需重启实例,立即生效。 静态参数:静态参数修改成功后,需要手动重启实例才能生效。 约束与限制 部分老实例不支持修改配置参数,具体以控制台为准,请联系客服解决。 单机实例不支持修改配置参数。
问题现象:正常登录Kafka Manager页面,但是页面无法显示节点信息,如下所示: 问题原因:这是Kafka开源问题,需要联系客服,重启Kafka Manager。 父主题: Kafka Manager问题
(可选)MirrorMaker开启后,如果在源集群上新建了Topic,如需对此Topic进行数据同步,则需重启MirrorMaker,重启步骤参考6。也可配置自动同步新增Topic,按需增加如表1所示配置后,无需重启MirrorMaker,即可周期性同步新增Topic。其中,“refresh.topics
控制台关闭Kafka Manager。 约束与限制 Kafka Manager关闭后,无法再次开启。 关闭Kafka Manager,不会重启实例。 关闭Kafka Manager 登录管理控制台。 在管理控制台左上角单击,选择Kafka实例所在的区域。 在管理控制台左上角单击,选择“应用中间件
Connect任务列表页面。 在待重启的Smart Connect任务所在行,单击“重启”,弹出“重启任务”对话框。 重启Smart Connect任务前,请注意以下两点: Smart Connect任务创建后,修改了源端或者目标端的参数,可能会导致重启失败。 重启Smart Connec
密文接入:表示客户端连接Kafka实例时,需要进行SASL认证。 约束与限制 首次修改接入方式时,部分实例会重启,另一部分实例不会重启,具体以控制台提示为准。实例重启大约需要75~80s。后续再次修改接入方式时,实例不会再重启。 单机实例只支持开启/关闭公网访问的明文接入。 开启了IPv6功能后,不支持修改实例的接入方式。
15版本使用的Kafka客户端存在bug,当某次消费进度提交失败后, 客户端将coordinator置为不可用且无法自动恢复。 问题解决措施 重启Flink job。 升级Flink至1.16及以上版本。
U使用率在90%以上时,不建议进行分区平衡。Topic的数据量和CPU使用率可以通过监控页面的“队列数据容量”和“CPU使用率”查看,具体步骤请参考查看Kafka监控数据。 带宽限制是指设定Topic进行副本同步的带宽上限,确保不会对该实例上的其他Topic造成流量冲击。但需要注
扩容/缩容过程中生产消息失败 可能原因:在扩容/缩容代理规格的过程中,代理采用滚动重启的方式进行实例变更。在重启过程中,分区Leader会进行切换,此时生产客户端的元数据缓存中保存的分区Leader为旧分区Leader ID,仍然会向旧分区Leader发送消息,导致生产消息失败。
Manager中仍可以看到此消费组,是因为Kafka Manager存在缓存。 通过以下任意一种方法解决此问题: 重启Kafka Manager。 Kafka Manager只显示14天内有消费记录的消费组,如果您不想重启Kafka Manager,可以等待14天后Kafka Manager自动清除此消费组。
已开启密文接入的Kafka实例,通过以下步骤修改Topic分区数。 (可选)修改客户端配置文件。 在Kafka控制台的“基本信息 > 连接信息”中查看Kafka安全协议,两种安全协议对应的配置文件设置有所不同,请根据实际情况配置。 SASL_PLAINTEXT:如果已经设置了用户名和密码,请跳过此步骤,执行2。