检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击“确定”,完成DNAT规则的添加。 DNAT规则添加成功后,在DNAT规则列表中查看此规则的状态,若“状态”为“运行中”,表示创建成功。 为获取Kafka实例的信息中记录的其他内网连接地址创建DNAT规则,每个DNAT规则需要设置不同的弹性公网IP。 创建DNAT规则的具体步骤参考2~4。
fka实例列表页面。 单击Kafka实例的名称,进入实例详情页面。 在左侧导航栏选择“消费组管理”,进入消费组列表页面。 消费组列表页面显示消费组名称、消费组状态、Coordinator (ID)和描述。Coordinator (ID)显示的数字表示Coordinator组件所在的代理,消费组的状态如下。
ka实例列表页面。 单击Kafka实例的名称,进入实例详情页面。 在“连接信息 > SSL证书”后,单击“下载”,将SSL证书下载到本地。 解压证书zip包,获取JKS格式的SSL证书。 登录Linux系统的服务器,将JKS格式的SSL证书上传到服务器中。 执行以下命令,将JKS格式证书转换为PKCS12格式。
STABLE:消费组内成员可以正常消费。 弹出“删除消费组”对话框,单击“确定”,完成消费组的删除。 使用命令行工具删除消费组 以下操作命令以Linux系统为例进行说明: 未开启密文接入的Kafka实例,在Kafka客户端的“/bin”目录下,通过以下命令删除消费组。 ./kafka-consumer-groups
转储任务名称。 destination_type 是 String 转存的目标类型,当前只支持OBS。 obs_destination_descriptor 是 ObsDestinationDescriptor object 转存目标的描述。 表3 ObsDestinationDescriptor
15版本消费Kafka时, 消费进度提交失败,持续报错:COORDINATOR_NOT_AVAILABLE。 根因描述 Flink 1.15版本使用的Kafka客户端存在bug,当某次消费进度提交失败后, 客户端将coordinator置为不可用且无法自动恢复。 问题解决措施 重启Flink
实例ID。 请求参数 无 响应参数 状态码: 200 表2 响应Body参数 参数 参数类型 描述 coordinators Array of coordinators objects 所有消费组对应的协调器列表。 表3 coordinators 参数 参数类型 描述 group_id String
coordinators Array 所有消费组对应的协调器列表。参数参见表3。 表3 coordinators参数说明 参数 类型 说明 group_id String 消费组ID。 id Integer 对应协调器的broker id。 host String 对应协调器的地址。 port
查看Kafka Topic详情 Kafka实例支持在控制台查看Topic的基本信息、分区信息、生产者信息和订阅关系。 约束与限制 如果一个实例中消费组数量超过10000,则不支持查询Topic的订阅关系。 查看Topic详情 登录管理控制台。 在管理控制台左上角单击,选择区域。 请选择Kafka实例所在的区域。
查询所有实例列表 当前页面API为历史版本API,未来可能停止维护。请使用查询所有实例列表。 功能介绍 查询租户的实例列表,支持按照条件查询。 URI GET /v1.0/{project_id}/instances?engine={engine}&name={name}&sta
装。python命令只能查询Python 2.x版本,python3命令只能查询Python 3.x版本,如果无法确认Python版本,请分别输入两个命令查看结果。 以Python 3.x为例,得到如下回显,说明Python已安装。 [root@ecs-test python-kafka]#
查询实例的扩容规格列表 功能介绍 查询实例的扩容规格列表。 调用方法 请参见如何调用API。 URI GET /v2/{engine}/{project_id}/instances/{instance_id}/extend 表1 路径参数 参数 是否必选 参数类型 描述 engine
Kafka实例是否支持修改访问端口? Kafka实例的访问端口固定,不支持修改。 如果是访问未开启SASL的Kafka实例 支持的访问方式如下:同一VPC内访问、公网访问、跨VPC访问和DNAT访问。 同一VPC内使用IPv4地址访问,访问端口为9092。 同一VPC内使用IPv6地址访问,访问端口为9192。
本文以Linux CentOS环境为例,介绍Go 1.16.5版本的Kafka客户端连接指导,包括demo代码库的获取,以及生产、消费消息。 使用前请参考收集连接信息收集Kafka所需的连接信息。 准备环境 执行以下命令,检查是否已安装Go。 go version 返回如下回显时,说明Go已经安装。
在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 单击Kafka实例名称,进入实例详情页面。 在左侧导航栏选择“消息查询”,进入消息列表页面。 Kafka实例支持两种查询消息的方法:按创建时间查询和按偏移量查询,具体查询参数参见表1和表2。 表1 按创建时间查询消息 参数名称 说明 Topic名称
查看Kafka重平衡日志 Rebalance是重新分配消息组中的消费者和Topic分区之间订阅关系的过程。在Rebalance过程中消费组下的所有消费者都会停止消费,等待Rebalance完成。 可能会触发Rebalance的原因: 消费组成员个数发生变化,例如有新的消费者加入,或者有消费者退出。
instance_id 是 String 实例ID。 表2 Query参数 参数 是否必选 参数类型 描述 offset 否 Integer 偏移量,表示从此偏移量开始查询, offset大于等于0。 limit 否 Integer 当次查询返回的最大消费组id个数,默认值为10,取值范围为1~50。
单击Kafka实例的名称,进入该Kafka实例的基本信息页面,查看Kafka实例的详细信息。 表2和表3为连接实例的相关参数,其他参数,请查看页面显示。 表2 连接参数说明(不支持修改SASL_SSL) 信息类型 参数 说明 连接信息 用户名 开启SASL_SSL后,连接实例的用户名。 Kafka
如何查看堆积消息数? 通过以下任意一种方法,查看堆积消息数。 在Kafka控制台的“消费组管理”页面,单击待查看堆积消息的消费组名称,进入消费组详情页。在“消费进度”页签,查看消费组中每个Topic的总堆积数。具体步骤,请参考查看消费进度。 在Kafka控制台的“监控与告警 >
status String 转储任务状态。 topics String 返回任务转存的topics列表或者正则表达式。 obs_destination_descriptor obs_destination_descriptor object 转存目标的描述。 topics_info