《Kafka笔记》1、Kafka初识

微信扫一扫,分享到朋友圈

《Kafka笔记》1、Kafka初识

目录

    • 2 消息中间件kafka的使用场景
    • 3 kafka对数据的管理形式
    • 5 Kafka的主题(topics)和日志(logs)
    • 6 生产者&消费者&消费者组
    • 7 顺序写入和Zero-copy(高性能之道)
      • 7.1 写入性能提升之道(顺序写和mmap)
      • 7.2 消费性能提升之道(zero-copy)

一、初识Kafka

1 apache kafka简介

Kafka是由Apache软件基金会开发的一个开源流处理平台,由Scala和Java编写。Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以收集并处理用户在网站中的所有动作流数据以及物联网设备的采样信息。

Apache Kafka是Apache软件基金会的开源的流处理平台,该平台提供了消息的订阅与发布的消息队列,一般用作 系统间解耦异步通信削峰填谷 等作用。同时Kafka又提供了Kafka streaming插件包实现了实时在线流处理。相比较一些专业的流处理框架不同,Kafka-Streaming计算是运行在应用端,具有简单、入门要求低、部署方便等优点。

  • 消息队列Message Queue
  • Kafka Streaming 流处理

2 消息中间件kafka的使用场景

2.1 订阅与发布队列

1、系统间解耦

2、异步通信

3、削峰填谷

2.2 流处理

1、Kafka streaming相比较于其他流处理框架,例如stom和spark,flink,kafka是应用在应用端的流处理。而stom,spark和flink都是运行在服务端的流处理框架。

2、所以kafak流,比stom,spark,flink的部署方便,运行的环境要求的比较低,同时无需开辟新的的服务器用来做流计算

3、所以kafka的流,被广泛应用在分布式,微服务领域

3 kafka对数据的管理形式

Message Queue : 消息队列

消息队列是一种在分布式和大数据开发中不可或缺的 中间件 。在分布式开发或者大数据开发中通常使用消息队列进行缓冲、系统间解耦和削峰填谷等业务场景,常见的消息队列工作模式大致会分为两大类:

  • 至多一次:消息生产者将数据写入消息系统,然后由消费者负责去拉去消息服务器中的消息,一旦 消息被确认消费之后 ,由 消息服务器主动删除队列中的数据 ,这种消费方式一般只允许被一个消费者消费,并且 消息队列中的数据不允许被重复消费 ,例如activeMQ。

  • 没有限制:同上诉消费形式不同,生产者发布完数据以后, 该消息可以被多个消费者同时消费,并且同一个消费者可以多次消费消息服务器中的同一个记录 。主要是因为消息服务器一般可以长时间存储海量消息。每个消费者都有自己的偏移量。例如Kafka

4 kafka基础架构

1、Kafka集群(kafka往往通过多节点构成)以Topic形式负责分类集群中的Record(消息)每一个Record属于一个Topic。每个Topic底层都会对应一组分区的日志用于持久化Topic中的Record。

2、同时在Kafka集群中,Topic的每一个日志的分区都一定会有1个Borker(机器节点)担当该分区的Leader,其他的Broker担当该分区的follower,Leader负责分区数据的读写操作,follower负责同步改分区的数据。

3、这样如果分区的Leader宕机,该分区的其他follower会选取出新的leader继续负责该分区数据的读写。

4、每个分区也都有自己的副本(分区冗余相互备份)。

5、其中集群的中Leader的监控和Topic的部分元数据是存储在Zookeeper中.

6、生产者发送的消息,只属于一个topic。消费者可以订阅多个topic。一旦订阅者订阅的topic有数据产生,便可以fetch它

7、hash(key)%分区数:不仅能够使消息均匀的落入我们的分区中,而且还可以是相同的key落入到相同的分区

8、分区因子:表示我们的每个分区要在集群中存多少份

9、kafka中,所有的broker节点,既是某个分区的leader也可能是另外分区的follower。

10、如上图,如果broker-0宕机,zookeeper会检测到我们Topic01的partion0的leader宕机。会协调重新在broker-1和broker-2选择partion0的leader。节点broker-0恢复服务后,我们zk集群会重新协调分配

5 Kafka的主题(topics)和日志(logs)

5.1 消息发布端

1、Kafka中所有消息(record)是通过Topic为单位进行管理,每个Kafka中的Topic 通常会有多个订阅者(也叫消费者) ,负责订阅发送到改Topic中的数据。Kafka负责管理集群中每个Topic的一组日志分区数据。

2、生产者将数据发布到相应的Topic。负责选择将哪个记录(消息)分发送到Topic中的哪个Partition。例如可以round-robin(轮询)方式完成此操作,然而这种仅是为了 平衡负载 。也可以根据某些语义分区功能(例如基于记录中的Key)进行此操作。

3、每组日志分区是一个有序的不可变的的日志序列(先进先出fifo),分区中的每一个Record都被分配了唯一的序列编号称为是offset(当前消息在序列中的位置),Kafka 集群会持久化所有发布到Topic中的Record信息,该Record的持久化的时间是通过配置文件指定,默认是168小时(7天)。 log.retention.hours=168

5、Kafka底层会定期的检查日志文件,然后将过期的数据从log中移除,由于 Kafka底层使用硬盘存储 日志文件,因此使用Kafka长时间缓存一些日志文件是不存在问题的。

6、由于遵循分区策略,每个partion的数据并不是相同的,也并非全局有序的,既并非保证topic全局先进先出。每个分区内部是有序的,总体构成的我们生产者生产在这个topic的全集的数据。 如果一定要保证在一个topic中全局有序,我们可以指定topic中的分区数为1个即可

7、每个分区,都有集群节点一个节点担任leader。那么如果要保证写入速度快,我们只需要增加topic中的分区数目即可。 既增加分区可以提升kafka的写入性能

5.2 消息消费端

1、在消费者消费Topic中数据的时候, 每个消费者会维护本次消费对应分区的偏移量 ,消费者会在消费完一个批次的数据之后,会将本次消费的偏移量提交给Kafka集群,因此对于每个消费者而言可以随意的控制改消费者的偏移量。因此在Kafka中,消费者可以从一个topic分区中的任意位置读取队列数据,由于 每个消费者控制了自己的消费的偏移量 ,因此多个消费者之间彼此相互独立。 消费者每次提交给kafka集群的偏移量,是该消费者下次需要读取的起始位置

2、Kafka中对Topic实现日志分区的有以下目的:

  • 首先,它们 允许日志扩展到超出单个服务器所能容纳的大小 。每个单独的分区都必须适合托管它的服务器,但是一个Topic可能有很多分区,因此它可以处理任意数量的数据。

  • 其次每个服务器充当其某些分区的Leader,也可能充当其他分区的Follwer,因此群集中的负载得到了很好的平衡。

6 生产者&消费者&消费者组

1、 消费者使用Consumer Group名称标记自己,并且发布到Topic的每条记录都会传递到每个订阅Consumer Group中的一个消费者实例 。如果所有Consumer实例都具有相同的Consumer Group,那么Topic中的记录会在该ConsumerGroup中的Consumer实例进行均分消费; 如果所有Consumer实例具有不同的ConsumerGroup,则每条记录将广播到所有Consumer Group进程

解释:对于kafka而言,只保证发送到topic中的每条消息,一定会发送到ConsumerGroup,但是到底发送给了ConsumerGroup的哪个Consumer消费者实例,取决于消费者实例的一些配置

2、更常见的是,我们发现Topic具有少量的Consumer Group, 每个Consumer Group可以理解为一个“逻辑的订阅者”。每个Consumer Group均由许多Consumer实例组成,以实现可伸缩性和容错能力 。这无非就是发布-订阅模型, 其中订阅者是消费者的集群(消费者组)而不是单个进程 。这种消费方式Kafka会将Topic按照分区的方式均分给一个Consumer Group下的实例, 如果ConsumerGroup下有新的成员介入,则新介入的Consumer实例会去接管ConsumerGroup内其他消费者负责的某些分区,同样如果一下ConsumerGroup下的有其他Consumer实例宕机,则由改ConsumerGroup其他实例接管

解释:同一个消费者组,只能均分分区消费,不能重复消费某一个分区,不管该组有多少个消费者。不同消费者组,互不影响。见下图

3、由于Kafka的Topic的分区策略,因此Kafka仅提供分区中记录的有序性,也就意味着 相同Topic的不同分区记录之间无顺序 。因为针对于绝大多数的大数据应用和使用场景, 使用分区内部有序或者使用key进行分区策略已经足够满足绝大多数应用场景。但是,如果您需要记录全局有序,则 可以通过只有一个分区Topic来实现 ,尽管这将 意味着每个ConsumerGroup只有一个Consumer进程,意味着我们会损伤kafka的高吞吐量

解释:一般消费者组里面消费者的数目,不会大于分区数目。如果大于,那么会存在某个消费者不消费,浪费了资源。例如上图在消费者组B增加一个消费者c5,那么由于c1,c2,c3,c4已经安排好了,c5只能处于空闲状态。但是如果c1,c2,c3,c4的某台宕机,会有c5来接管

原则意义上讲,topic中的分区越多,我们定义消费者组中的消费者只需要保持一致,并行消费能力增强,就可以加快消费。本质还是加大topic中的分区数目。

所以增加kafka的topic中的分区数目,不仅仅可以增加我们的存储,写入能力。也可以间接增加我们并行消费topic的速度和能力

7 顺序写入和Zero-copy(高性能之道)

7.1 写入性能提升之道(顺序写和mmap)

1、Kafka的 特性之一就是高吞吐率 ,但是Kafka的消息是保存或缓存在磁盘上的,一般认为在磁盘上读写数据是会降低性能的,但是 Kafka即使是普通的服务器,Kafka也可以轻松支持每秒百万级的写入请求,超过了大部分的消息中间件,这种特性也使得Kafka在日志处理等海量数据场景广泛应用 。Kafka会把收到的消息都写入到硬盘中,防止丢失数据。为了优化写入速度Kafka采用了两个技术 顺序写入MMFile(内存映射文件)

2、因为硬盘是机械结构,每次读写都会寻址->写入,其中寻址是一个“机械动作”,它是最耗时的(移动磁头)。所以 硬盘最讨厌随机I/O,最喜欢顺序I/O 。为了提高读写硬盘的速度,Kafka就是使用顺序I/O。 这样省去了大量的内存开销以及节省了IO寻址的时间 。但是单纯的使用顺序写入,Kafka的写入性能也不可能和内存进行对比, 因此Kafka的数据并不是实时的写入硬盘中

3、Kafka充分利用了现代操作系统分页存储(page catch)来利用内存提高I/O效率。Memory Mapped Files(后面简称mmap)也称为内存映射文件,在64位操作系统中一般可以表示20G的数据文件,它的 工作原理是直接利用操作系统的Page实现文件到物理内存的直接映射。完成MMP映射后,用户对内存的所有操作会被操作系统自动的刷新到磁盘上,极大地降低了IO使用率

注:kafka直接把数据写入到内核级别的内存中,算是写入成功了,kafka不会主动刷新内核级别的内存上的数据到磁盘上。而是由操作系统来刷新,极大降低io的使用率。对于用户而言,我们感知的kafak的写入效率,直接逼近与内存写入

7.2 消费性能提升之道(zero-copy)

1、Kafka服务器在响应客户端读取的时候,底层使用ZeroCopy技术,直接将磁盘无需拷贝到用户空间,而是 直接将数据通过内核空间传递输出,数据并没有抵达用户空间

2、传统IO操作

  • 1、用户进程调用read等系统调用向操作系统发出IO请求,请求读取数据到自己的内存缓冲区中。自己进入阻塞状态。
  • 2、操作系统收到请求后,进一步将IO请求发送磁盘。
  • 3、磁盘驱动器收到内核的IO请求,把数据从磁盘读取到驱动器的缓冲中。此时不占用CPU。当驱动器的缓冲区被读满后,向内核发起中断信号告知自己缓冲区已满。
  • 4、内核收到中断,使用CPU时间将磁盘驱动器的缓存中的数据拷贝到内核缓冲区中。
  • 5、如果内核缓冲区的数据少于用户申请的读的数据,重复步骤3跟步骤4,直到内核缓冲区的数据足够多为止。
  • 6、将数据从内核缓冲区拷贝到用户缓冲区,同时从系统调用中返回。完成任务

3、DMA读取

  • 1、用户进程调用read等系统调用向操作系统发出IO请求,请求读取数据到自己的内存缓冲区中。自己进入阻塞状态。
  • 2、操作系统收到请求后,进一步将IO请求发送DMA。然后让CPU干别的活去。
  • 3、DMA进一步将IO请求发送给磁盘。
  • 4.磁盘驱动器收到DMA的IO请求,把数据从磁盘读取到驱动器的缓冲中。当驱动器的缓冲区被读满后,向DMA发起中断信号告知自己缓冲区已满。
  • 4、DMA收到磁盘驱动器的信号,将磁盘驱动器的缓存中的数据拷贝到内核缓冲区中。此时不占用CPU。这个时候只要内核缓冲区的数据少于用户申请的读的数据,内核就会一直重复步骤3跟步骤4,直到内核缓冲区的数据足够多为止。
  • 5、当DMA读取了足够多的数据,就会发送中断信号给CPU。
  • 6、CPU收到DMA的信号,知道数据已经准备好,于是将数据从内核拷贝到用户空间,系统调用返回。

注:跟IO中断模式相比,DMA模式下,DMA就是CPU的一个代理,它负责了一部分的拷贝工作,从而减轻了CPU的负担。DMA的优点就是:中断少,CPU负担低。

4、网络IO

  • 一般方案:

1、文件在磁盘中数据被copy到内核缓冲区

2、从内核缓冲区copy到用户缓冲区

3、用户缓冲区copy到内核与socket相关的缓冲区。

4、数据从socket缓冲区copy到相关协议引擎发送出去

  • Zero拷贝

1、文件在磁盘中数据被copy到内核缓冲区

2、从内核缓冲区copy到内核与socket相关的缓冲区。

3、数据从socket缓冲区copy到相关协议引擎发送出去

本章小结

1.队列的使用场景

  • 解耦、异步通信、削峰填谷

2.Kafka架构和基本概念

  • topic、分区/分区副本因子、offset、顺序写、zeroCopy
  • 生产者、消费者|消费者组

微信扫一扫,分享到朋友圈

《Kafka笔记》1、Kafka初识

Adam又要“退休”了?耶鲁大学团队提出AdaBelief,NeurIPS 2020收录,却引来网友质疑

上一篇

你也可能喜欢

《Kafka笔记》1、Kafka初识

长按储存图像,分享给朋友