检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户名 - 开启密文接入后,连接实例的用户名。 内网访问 明文接入 是否开启明文接入。 内网明文连接地址 明文接入开启后,才显示此参数。 密文接入 是否开启密文接入。 单机实例不支持开启密文接入。 内网密文连接地址 密文接入开启后,才显示此参数。 启用的安全协议 密文接入开启后,才显示此参数。
198.19.128.0/17 通过VPC终端节点实现跨VPC访问Kafka实例(密文接入和明文接入都适用)。 入方向 TCP 9011 Kafka客户端所在的IP地址或地址组 使用DNAT访问Kafka实例(密文接入和明文接入都适用)。 入方向 TCP 9092 Kafka客户端所在的IP地址或地址组
second),在Kafka场景中,指每秒能写入到Kafka实例的最大消息数量。下表中TPS性能,是指以1KB大小的消息为例的每秒处理消息条数。测试场景为连接内网访问明文接入、磁盘类型为超高I/O的实例。如果您想要了解更多关于TPS的性能,请参考测试Kafka实例TPS。 表1 Kafka集群实例规格 规格名称
跳转到“后台任务管理”页面。 当任务状态显示为“成功”时,表示成功开启公网访问。 图2 开启公网访问 开启公网访问后,需要设置接入方式(明文接入、密文接入)和对应的安全组规则,才能成功连接Kafka。连接Kafka的具体操作请参考连接实例。 表3 Kafka实例安全组规则(IPv4公网访问)
实例是否支持内网PLAINTEXT访问接入方式。 true:实例支持内网PLAINTEXT访问方式接入方式。 false:实例不支持内网PLAINTEXT访问接入方式。 private_plain_address String kafka内网PLAINTEXT接入方式连接地址。 private_plain_domain_name
删除Topic会导致Topic中的数据也被删除,并且无法找回,同时会影响使用该Topic的相关业务。 已开启密文接入的实例,“allow.everyone.if.no.acl.found”设置为“false”时,初始用户(即首次开启密文接入时设置的用户)可以通过客户端删除Topic,其他用户无法通过客户端删除Topic。
port_protocol 否 PortProtocol object 设置Kafka实例的接入方式。PLAINTEXT表示明文接入,SASL_SSL或者SASL_PLAINTEEXT表示密文接入。 内网访问不支持关闭,明文接入和密文接入至少开启一个。 跨VPC访问的安全协议等于内网访问的安全协议,若内网
在左侧导航栏选择“Topic管理”,进入Topic列表页面。 单击“查看示例代码”,弹出“生产消费示例代码”对话框。 示例代码根据语言分为:Java、Go和Python。根据接入类型分为:PlainText、SASL_SSL和SASL_PLAINTEXT。 PlainText:客户端通过明文连接Kafka实例。 S
OBS)之间的数据同步,或者两个Kafka实例之间的数据同步,实现数据的备份或迁移。 Smart Connect的使用流程为: 开启Smart Connect。 创建Smart Connect任务。 本章节主要介绍如何开启Smart Connect。 约束与限制 开启Smart
使用VPCEP实现跨VPC访问Kafka Kafka客户端和Kafka实例在同一区域的不同VPC中,由于VPC之间逻辑隔离,Kafka客户端和Kafka实例不能直接通信。您可以通过以下任意一个方式实现跨VPC访问: 创建VPC对等连接,将两个VPC的网络打通,实现跨VPC访问。具体步骤请参考对等连接。
使用客户端连接Kafka(关闭SASL) 本章节介绍如何使用开源的Kafka客户端访问关闭SASL的Kafka实例的方法。关闭SASL表示客户端访问Kafka实例时,无需进行认证,数据通过明文传输,性能更好。 约束与限制 2020年7月以及之后购买的实例,Kafka实例的每个代理
Connect管理 分布式消息服务Kafka版通过开启Smart Connect,实现Kafka实例和其他云服务(如OBS)之间的数据同步,或者两个Kafka实例之间的数据同步。 支持区域: 全部 如何开启Smart Connect? 用户管理 分布式消息服务Kafka版支持对To
查看和重置Kafka消费进度 消费进度表示消费者的消费位置,本章节介绍如何查看和重置消费进度,重置消费进度即修改消费者的消费位置。 操作视频 本视频演示重置Kafka消费进度的操作。 约束与限制 重置消费进度可能会导致重复消费,请谨慎操作。 前提条件 Kafka实例不支持在线重置
配置Kafka数据转储至OBS 本章节介绍如何创建转储的Smart Connect任务,通过Smart Connect任务可以将Kafka实例中的数据转储至OBS中,实现消息数据的备份。 源Kafka实例中的数据会实时同步到转储文件中。 约束与限制 单机实例不支持创建转储的Smart
second),在Kafka场景中,指每秒能写入到Kafka实例的最大消息数量。下表中TPS性能,是指以1KB大小的消息为例的每秒处理消息条数。测试场景为连接内网访问明文接入、磁盘类型为超高I/O的实例。 表1 Kafka单机实例规格 规格名称 代理个数 单个代理TPS 单个代理分区上限 单个代理建议消费组数 单个代理客户端总连接数上限
如何将Kafka实例中的数据同步到另一个Kafka实例中? Kafka实例支持创建Kafka数据复制类型的Smart Connect任务时,首先开启Smart Connect,然后创建Kafka数据复制类型的Smart Connect任务,实现两个Kafka实例数据的同步,具体步骤请参考创建Smart
设置实例网络环境信息 设置实例的访问方式,如图5所示,配置详情请参考表5。 表5 设置实例的访问方式 参数 子参数 说明 内网访问 接入方式 选择“密文接入”,即客户端连接Kafka实例时,需要进行SASL认证。 kafka安全协议 选择“SASL_SSL”,即采用SASL方式进行认
本章节介绍在对消费消息实时性要求不高的场景中,如何优化消费者Polling,减少消息较少或者没有消息时的资源浪费。 Logstash对接Kafka生产消费消息 Kafka实例可以作为Logstash输入源,也可以作为Logstash输出源。本章节介绍Logstash如何对接Kafka实例生产消费消息。
Kafka是否支持Kerberos认证,如何开启认证? Kafka支持SASL客户端认证、调用接口支持Token和AK/SK两种认证,Kerberos认证目前不支持。 如果使用SASL认证方式,则在开源客户端基础上使用分布式消息服务Kafka版提供的证书文件。具体操作参考使用客户端连接Kafka(开启SASL)。
JKS格式的SSL证书 SSL证书的作用是在客户端和Kafka实例进行数据传输时对数据加密传输,提高了数据的安全性。 Kafka客户端连接开启密文接入且Kafka安全协议为“SASL_SSL”的Kafka实例时,您可以使用分布式消息服务Kafka版提供的证书,也可以使用自己制作的证书。如