内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • kafka 面试题

    如果我指定了一个offset,Kafka怎么查找到对应的消息? 聊一聊你对Kafka的Log Retention的理解 聊一聊你对Kafka的Log Compaction的理解 聊一聊你对Kafka底层存储的理解(页缓存、内核层、块层、设备层) 聊一聊Kafka的延时操作的原理 聊一聊Kafka控制器的作用

    作者: Rolle
    发表时间: 2024-05-12 15:44:27
    15
    0
  • 看完这篇Kafka,你也许就会了Kafka

    场景 消费形式 kafka基础架构 Record 、Topic、Broker、leader、follower 分区&日志 生产者与消费者 写入和读出的性能 Kafka环境搭建 & Topic管理: kafka和zookeeper之间的关系

    作者: 毛利
    发表时间: 2021-07-14 19:52:33
    1170
    0
  • kafka 有几种数据保留的策略?

    kafka 可以脱离 zookeeper 单独使用吗?为什么? kafka 不能脱离 zookeeper 单独使用,因为 kafka 使用 zookeeper 管理和协调 kafka 的节点服务器。 kafka 有几种数据保留的策略? kafka 有两种数据保存策略:按照过期时间保留和按照存储的消息大小保留。

    作者: 全力向前冲
    发表时间: 2022-10-29 15:50:59
    368
    0
  • Spark 操作 kafka

    sources :像Kafka,Flume,Kinesis等这样的源,可通过额外的程序类获得 消费 先把数据接收过来,转换为spark streaming中的数据结构Dstream。接收数据的方式有两种:1.利用Receiver接收数据,2.直接从kafka读取数据。 在spark1

    作者: 武师叔
    发表时间: 2022-09-29 08:38:03
    173
    0
  • 使用Kafka客户端

    登录安装客户端的节点。 执行以下命令,切换到客户端目录,例如“/opt/hadoopclient/Kafka/kafka/bin”。cd /opt/hadoopclient/Kafka/kafka/bin 执行以下命令,配置环境变量。source /opt/hadoopclient/bigdata_env

  • datafactory: 虚拟kafka数据源如何配置

    【功能模块】数据源【操作步骤&问题现象】

    作者: 华三论剑
    15394
    1
  • Apache Kafka-初体验Kafka(03)-Centos7下搭建kafka集群

    概述 对于kafka来说,一个单独的broker意味着kafka集群中只有一个节点。要想增加kafka集群中的节点数量,只需要多启动几个broker实例即可。 单个节点的安装: Kafka-初体验Kafka(02)-Centos7下搭建单节点kafka_2.11‐1.1

    作者: 小工匠
    发表时间: 2021-09-10 16:25:05
    1127
    0
  • 鲲鹏组件编译实战--kafka

    径错误问题,会导致后面的gradle assemble执行报错问题如下操作解决问题问题2:解压包命令有问题(tar -zxvf scala-2.11.11.tgz -d /usr/local)如下操作解决问题说明:以上是个人编译过程遇到的问题,仅供参考

    作者: 大概率事件
    1266
    1
  • DIS Kafka Adapter概述

    DIS Kafka Adapter概述 dis-kafka-adapter是数据接入服务(DIS)提供的一个sdk,支持原本使用Kafka Client上传数据的用户以类似原来的操作将数据上传到DIS,目前只支持Java版本。 父主题:

  • Kafka监控利器

      开发过程中,kafka几乎是标配的Mq,如果有一个kafka的监控助手,哪就更完美了,常用的kafka监控工具有 KafkaOffsetMonitor 、Kafka Manager、Capillary、Kafka Eagle,经过测试,最后决定使用Kafka Manager。这篇文章主要介绍Kafka

    作者: 架构师聊技术
    发表时间: 2018-12-14 17:36:19
    7793
    0
  • DIS Kafka Adapter实践

    DIS Kafka Adapter实践 DIS Kafka Adapter概述 准备环境 上传数据 数据下载的消费模式 下载数据值消费位移 父主题: 使用场景

  • RDA平台Kafka自动采集

    RDA平台Kafka自动采集

  • 迁移Kafka数据至DLI

    Kafka数据源配置源端MRS Kafka的数据源连接,具体参数配置如下。表1 MRS Kafka数据源配置参数值名称自定义MRS Kafka数据源名称。例如当前配置为“source_kafka”。Manager IP单击输入框旁边的“选择”按钮,选择当前MRS Kafka集群即可自动关联出来Manager

    作者: yd_228714723
    284
    0
  • kafka集群方案

    标题:构建高可用的Kafka集群:实现可靠的消息传递 在当今大数据时代,消息传递系统对于数据流的可靠性和实时性至关重要。Apache Kafka 作为一个分布式流处理平台,以其高可扩展性和可靠性而备受青睐。本文将深入探讨如何构建一个高可用的 Kafka 集群,确保数据的可靠传递和系统的稳定运行。

    作者: Rolle
    发表时间: 2023-12-24 21:53:55
    285
    0
  • Kafka生产发送数据失败

    我们使用kafka时,有时候会遇到发送数据失败的情况,其原因及解决方案如下: 1.     Kafka topic leader为-1 Kafka客户端执行如下命令查看topic的leader信息: kafka-topics.sh

    作者: Summer_
    发表时间: 2022-04-28 06:38:59
    889
    0
  • 使用python库confluent_kafka连接安全集群Kafka

           从源码安装confluent-kafka python库(此步骤依赖上一步骤的librdkafka so链接库):$ pip install --no-binary :all: confluent-kafka 6.       编写测试用例测试confluent-kafka使用:此处只提供客

    作者: suwei
    2636
    1
  • 收集kafka-root.log查看每个broker节点的磁盘IO

    并且过滤掉0.0x的低磁盘使用率数据。通过前台将对应时间段的kafka日志全部收集回来在本地全部解压缩后,在根目录下全部查询,zgrep ioUsage ./根目录kafka的目录*/var/log/Bigdata/kafka/broker/kafka-root.* | grep

    作者: Bigdata Go!
    46
    0
  • 启用LVM特性的MRS Kafka集群磁盘在线扩容,业务不中断

    5及以后的版本,都支持在流式节点上开启LVM特性。LVM特性能有效防止kafka磁盘场景下topic中因为数据不均导致某个partition流量特别大进而磁盘被写爆。同时开启LVM以后可以做到不重启系统、服务或组件的情况下实现磁盘平滑扩容,保证业务的连续性。详情请点击博文链接:https://bbs

    作者: AI资讯
    3169
    1
  • KafKa - 分区副本ISR选举机制

    一、KafKa分区副本ISR选举机制 kafka 中每一个主题又进一步划分成若干个分区。副本的概念实际上是在分区层级下定义的,每个分区配置有多若干个副本。 所谓的副本,本质上就是一个只能追加写消息的提交日志,根据kafka副本机制的定义,同一个分区下的

    作者: 小毕超
    发表时间: 2022-06-23 14:22:01
    391
    0
  • kafka消费组

    后才能继续消费 Kafka的老版本消费者组的位移保存在Zookeeper中,好处是Kafka减少了Kafka Broker端状态保存开销。但ZK是一个分布式的协调框架,不适合进行频繁的写更新,这种大吞吐量的写操作极大的拖慢了Zookeeper集群的性能。Kafka的新版本采用了将位移保存在Kafka内部主题的方法。

    作者: Rolle
    发表时间: 2023-11-30 17:31:53
    7
    0