检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
来时间导致消息无法老化。 尽量复用producer,不要频繁创建producer。当producer开启幂等时(生产者客户端3.0及之后的版本默认开启幂等),生产消息会在服务端创建生产者状态对象,若频繁创建producer,会导致服务端创建大量生产者状态对象后无法及时回收,服务端
被服务器接收,且仍未被拒绝。 101 Switching Protocols 切换协议。只能切换到更高级的协议。 例如,切换到HTTP的新版本协议。 200 OK 请求成功。 201 Created 创建类的请求完全成功。 202 Accepted 已经接受请求,但未处理完成。 203
区。 设置实例规格信息。 表9 实例规格参数说明 参数名称 说明 版本 Kafka的版本号,支持1.1.0、2.7、3.x。 实例创建后,版本号不支持修改。 部署架构 根据需求选择“单机”或“集群”。 仅2.7版本支持创建单机实例。关于单机实例和集群实例的差异,请参见单机和集群Kafka实例差异概述。
Kafka允许的最大批处理大小,如果在生产客户端配置文件或代码中启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“批处理消息最大值”,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 取值范围:0~10485760
参数 参数类型 描述 name String 实例名称。 engine String 引擎。 engine_version String 版本。 description String 实例描述。 specification String 实例规格。 storage_space Integer
参数 参数类型 描述 name String 实例名称。 engine String 引擎。 engine_version String 版本。 description String 实例描述。 specification String 实例规格。 storage_space Integer
批处理消息最大值 Kafka允许的最大批处理大小,如果启用消息压缩,则表示压缩后的最大批处理大小。 如果增加“批处理消息最大值”的值,且存在消费者版本早于0.10.2,此时消费者的“fetch size”值也必须增加,以便消费者可以获取增加后的批处理大小。 描述 Topic的描述信息。 修改Topic配置
删除”。 在“删除Topic”对话框中,单击“确定”,确认删除Topic。 删除Kafka Topic(Kafka客户端) Kafka客户端版本为2.2以上时,支持通过kafka-topics.sh删除Topic。 未开启密文接入的Kafka实例,在Kafka客户端的“/bin”目录下,通过以下命令删除Topic。
替换证书将重启实例,请谨慎操作。 前提条件 已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作证书 登录Linux系统的服务器,执行以下命令,生成server
String 节点ID。 is_controller Boolean 是否为contoller节点。 version String 服务端版本。 register_time Long broker注册时间,为unix时间戳格式。 is_health Boolean Kafka实例节点的连通性是否正常。
200以内。 图2 增加分区数量 显示“Done”,表示分区增加成功。 图3 分区增加成功 在客户端修改Topic分区数 Kafka客户端版本为2.2以上时,支持通过kafka-topics.sh修改Topic分区数。 未开启密文接入的Kafka实例,在Kafka客户端的“/bi
Development Kit 1.8.111及以上版本。 解压Java JDK。 tar -zxvf jdk-8u321-linux-x64.tar.gz “jdk-8u321-linux-x64.tar.gz”为JDK的版本,请根据实际情况修改。 打开“.bash_profile”文件。
在左侧导航栏单击“Kafka实例”,进入Kafka实例列表页面。 Kafka实例支持通过筛选来查询对应的Kafka实例。当前支持的筛选条件为标签、状态、名称、版本、规格、已用/可用存储空间、分区上限、计费模式和企业项目。企业用户才能使用企业项目进行筛选。Kafka实例状态请参见表1。 表1 Kafka实例状态说明
垮,可在前后端系统间使用Kafka消息队列传递请求。 图3 消息队列应对秒杀大流量场景 日志同步 在大型业务系统设计中,为了快速定位问题,全链路追踪日志,以及故障及时预警监控,通常需要将各系统应用的日志集中分析处理。 Kafka设计初衷就是为了应对大量日志传输场景,应用通过异步方
参数 参数类型 描述 engine String 分布式消息服务的产品类型。 versions Array of strings 支持的产品版本类型。 products Array of ListEngineProductsEntity objects 产品规格的详细信息。 表4
参数类型 描述 engine String 消息引擎类型:kafka。 versions Array of strings 消息引擎支持的版本。 products Array of ExtendProductInfoEntity objects 规格变更的产品信息。 表4 Ext
sync_mode 否 String 同步类型,“RDB_ONLY”为全量同步,“CUSTOM_OFFSET”为全量同步+增量同步。(仅源端类型为Redis时需要填写) full_sync_wait_ms 否 Integer 全量同步重试间隔时间,单位:毫秒。(仅源端类型为Redis时需要填写)
sync_mode String 同步类型,“RDB_ONLY”为全量同步,“CUSTOM_OFFSET”为全量同步+增量同步。(仅源端类型为Redis时会显示) full_sync_wait_ms Integer 全量同步重试间隔时间,单位:毫秒。(仅源端类型为Redis时会显示)
开启/关闭SSL双向认证将重启实例,请谨慎操作。 前提条件 已准备一台Linux系统的服务器,并安装Java Development Kit 1.8.111或以上版本,配置JAVA_HOME与PATH环境变量。 实例已开启Kafka SASL_SSL。 步骤一:制作客户端验证服务端的证书 登录Linux
下文所有Kafka的配置信息,如实例连接地址、Topic名称、用户信息等,请参考收集连接信息获取。 Maven中引入Kafka客户端 //Kafka实例基于社区版本1.1.0/2.3.0/2.7/3.x,推荐客户端保持一致。 <dependency> <groupId>org