内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • Kafka】1 简介

    总结 Kafka最适合的还是作为消息队列,处理流数据,给大量数据处理做一层缓冲。 前后对接,前面对接输入业务,后面对接可视化业务或者数据分析业务。 最常见的还是作为日志处理的一部分,参考阿里云版本的Kafka,详情见下图,也可以算是Kafka的最佳实践了。 参考资料

    作者: 小雨青年
    发表时间: 2022-03-28 16:35:19
    390
    0
  • Kafka使用最佳实践-Kafka Topic故障问题分析思路

    ions 如果要彻底解决以上问题,有两个解决方法: 首先按照维护宝典《执行Kafka Topic创建操作,发现Partition的Leader显示为none》章节处理。 重启kafka集群。 Zookeeper上的分区数创建完整,但是leader为-1:参照维护宝

    作者: FI小粉丝
    发表时间: 2021-05-28 07:43:01
    3762
    1
  • 【flink 1.7.2】【向Kafka生产】ClassNotFoundException: org.apache.kafka.

    org.apache.flink.client.program.PackagedProgram.callMainMethod(PackagedProgram.java:529)        at org.apache.flink.client.program.PackagedProgram

    作者: 黄金振
    3606
    4
  • Kafka集群性能的检测方式

    生产性能测试脚本分析使用客户端脚本kafka-producer-perf-test.sh能够测试当前集群的生产的性能基线。如下图:使用方法(以6.5.1版本为例)如下:./kafka-producer-perf-test.sh --topic topicName --num-records

    作者: Bigdata Go!
    120
    1
  • 开源confluent-kafka-go连接华为MRS的安全集群

    于 2017-11-20 14:41 编辑 <br /> 1 问题描述: 开源confluent-kafka-go连接华为MRS的安全集群失败。 具体原因:confluent-kafka-go依赖的库librdkafka默认将broker所在hostname作为了server pr

    作者: MRS案例分享
    9491
    1
  • 使用go语言:MRS安全集群使用sarama连接Kafka报错

    39F.COM for kafka/192.168.16.108@4330C96C_A232_4DC5_B805_5CC19312339F.COM, Server not found in Kerberos database看起来应该是这个不对:kafka/192.168.16.

    作者: aaronsysu
    1834
    1
  • MRS 创建FlinkServer数据连接kafka 报未知错误

    MRS是安全模式,kakfa集群把Ranger鉴权停了也连不上,测试报未知错误,但是kafka在客户端中是可以正常使用的。

    作者: yd_218964140
    55
    4
  • Kafka简介及使用PHP处理Kafka消息

    支持离线数据处理和实时数据处理。 Kafka的架构: kafka架构图 &nbsp; Kafka的整体架构非常简单,producer、broker(kafka)和consumer都可以有多个。Producer,consumer实现Kafka注册的接口,数据从producer

    作者: Lansonli
    发表时间: 2021-09-27 15:12:05
    1220
    0
  • DIS Kafka Adapter概述

    DIS Kafka Adapter概述 dis-kafka-adapter是数据接入服务(DIS)提供的一个sdk,支持原本使用Kafka Client上传数据的用户以类似原来的操作将数据上传到DIS,目前只支持Java版本。 父主题:

  • kafka运维】TopicCommand-Kafka运维脚本(1)

    --bootstrap-server 指定kafka服务 指定连接到的kafka服务; 如果有这个参数,则 --zookeeper可以不需要 –bootstrap-server localhost:9092 --zookeeper 弃用, 通过zk的连接方式连接kafka集群; –zookeeper

    作者: 石臻臻的杂货铺
    发表时间: 2021-07-16 08:07:20
    2887
    0
  • Flink消费kafka消息实战

    S: PLAINTEXT://kafka1:9092 KAFKA_LISTENERS: PLAINTEXT://:9092 KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181 KAFKA_CREATE_TOPICS:

    作者: 程序员欣宸
    发表时间: 2022-07-27 04:43:45
    369
    0
  • kafka 就近消費

    ## 背景 在搭建Kafka集群时,通常会按照机架部署机器。Kafka在新建topic时,为了提高集群的可靠性, 会将同一分区的不同副本分布在不同的机架内,这样即使有一个机架上的机器宕掉,也不会影响服务的可用性和稳定性 如下图:集群中有三个机架,每个机架内部3个节点,在这个集群内创建了3分区3副本的topic

    作者: 尘枫
    1522
    0
  • Kafka入门

    第一,kafka简介以及适用场景,第二,kafka设计原理,三,常见问题及思考。 一、kafka简介及适用场景 **kafka官网上对 kafka 的定义:**一个分布式发布-订阅消息传递系统。主要特点包括高吞吐量、持久化(消息持久化到磁盘,支持批量和实时处理)、可扩展性、容错性。

    作者: Tester_muller
    发表时间: 2022-06-30 16:45:38
    800
    0
  • Python:kafka基本操作

    https://pykafka.readthedocs.io/ kafka-python https://pypi.org/project/kafka-python/ https://github.com/dpkp/kafka-python http://kafka-python.readthedocs.io/

    作者: 彭世瑜
    发表时间: 2021-08-13 15:47:22
    1027
    0
  • 玩转KafkaKafka高性能原因分析

    玩转KafkaKafka高性能原因分析 Kafka最大的特点:高吞吐,即使在普通的机械硬盘下也可以达到每秒几百万的处理量 对比RocketMQ: 那么Kafka为什么能实现如此高的吞吐量呢? 主要以下四个方面: 磁盘的顺序读写 页缓存 零拷贝技术 批量处理 下面我们来分别解释下

    作者: Barry Yan
    发表时间: 2022-11-29 14:29:55
    131
    0
  • kafka消费的三种模式_快速认识Kafka

     1.Kafka是什么 简单的说,Kafka是由Linkedin开发的一个分布式的消息队列系统(Message Queue)。kafka的架构师jay kreps非常喜欢franz kafka,觉得kafka这个名字很酷,因此将linkedin的消息传递系统命名为完全不相干的kafka,没有特别含义。 2

    作者: 多米诺的古牌
    59
    1
  • spark streaming连接kafka引发"partition.assignment.strategy"异常处理

    py  代码中使用pyspark.streaming.kafka的KafkaUtils来创建spark streaming与kafka连接,运行了好长时间都没有出现过问题  随着新业务接入,在新功能中kafka需要使用动态topics方式,要用到正则表达式,查了KafkaUtils源码

    作者: AllEmpty
    发表时间: 2020-03-18 03:03:02
    4058
    0
  • Kafka学习之路 (一)Kafka的简介

    统和消息系统。Kafka主要设计目标如下:可靠性 - Kafka是分布式,分区,复制和容错的。可扩展性 - Kafka消息传递系统轻松缩放,无需停机。耐用性 - Kafka使用分布式提交日志,这意味着消息会尽可能快地保留在磁盘上,因此它是持久的。性能 - Kafka对于发布和订阅

    作者: 技术火炬手
    发表时间: 2018-11-15 07:01:54
    2374
    0
  • Kafka中的offset总结

    roupid决定,计算方式是:groupid的hashCode值对50取余。当kafka环境正常而消费者不能消费时,有可能是对应的__consumer_offsets分区leader为none或-1,或者分区中的日志文件损坏导致。消费者提交offset方式可以是手动提交也可以是自动提交,相关的参数设置是enable

    作者: Summer_
    发表时间: 2020-09-22 09:43:24
    8547
    0
  • 程序中连接kafka时报错且确认配置的bootstrap.servers正确

    【功能模块】kafka【操作步骤&问题现象】1、编写程序,大致逻辑:SparkStreaming读取kafka中的数据,然后写入hbase中2、此demo是华为云上的样例demo,视频地址:https://bbs.huaweicloud.com/forum/thread-90888-1-1

    作者: 半个菜鸟
    4944
    5