Kafka(1)-初识Kafka

微信扫一扫,分享到朋友圈

Kafka(1)-初识Kafka

消息中间件的背景介绍

消息中间件能够解决的问题

异步

​ 很多业务场景我们需要把同步的任务变成异步的任务。

​ 拿一个电商平台的注册功能来简单分析下,用 户注册这一个服务,不单单只是insert一条数据到数据库里面就完事了,还需要发送激活邮件、发送新人红包或者积分、发送营销短信等一系列操作。假如说这里面的每一个操作,都需要消耗1s,那么整个注册过程就需要耗时4s才能响应给用户。

​ 那么我们需要把这些操作拆出来,优化变成异步处理的逻辑。

  • 我们可以使用阻塞队列+线程池来实现生产者消费者模式。

    • 但是这种方式只适用于单机,一旦机器宕机,那么原来在阻塞队列中存储的数据内容就丢失了。
  • 使用消息中间件来处理

削峰

​ 用户提交过来的请求,先写入到消息队列。消息队列是有长度的,如果消息队列长度超过指定长度, 直接抛弃。这样就把流量的峰值削掉了。

限流

​ 秒杀的具体核心处理业务,接收消息队列中消息进行处理,这里的消息处理能力取决于消费端本身的 吞吐量

解耦

​ 不同程序语言之间可以通过消息队列来达到通信。

消息持久化

​ 能够不用担心应用程序挂了而无法消费消息

​ 当然,消息中间件还有更多应用场景,比如在弱一致性事务模型中,可以采用分布式消息队列的实现最 大能力通知方式来实现数据的最终一致性等等

思考消息中间件的设计

可以先从基本的需求开始思考

  • 最基本支持消息的收发

    • 网络通信就会考虑NIO
  • 消息的存储

    • 持久化,非持久化
  • 消息的序列化,反序列化
  • 是否跨语言
  • 消息的确认机制

    • 如何避免消息的重发

高级功能

  • 消息的有序性
  • 是否支持事物消息
  • 消息收发的性能,对高并发大数据的支持
  • 是否支持集群
  • 消息的可靠性传输
  • 是否支持多协议

消息中间件的发展过程

​ 实际上消息中间件的发展也是挺有意思的,我们知道任何一个技术的出现都是为了解决实际问题,这个 问题是 通过一种通用的软件 总线 也就是一种通信系统,解决应用程序之间 繁重的信息通信 工作。

​ 最早的小白鼠就是金融交易领域,因为在当时这个领域中,交易员需要通过不同的终端完成交易,每台终端显示不同的信息。

​ 如果接入消息总线,那么交易员只需要在一台终端上操作,然后订阅其他终端感兴趣 的消息。于是就诞生了发布订阅模型(pubsub),同时诞生了世界上第一个现代消息队列软件(TIB) The information Bus, TIB允许开发者建立一系列规则去描述消息内容,只要消息按照这些规则发布出 去,任何消费者应用都能订阅感兴趣的消息。

​ 随着TIB带来的甜头被广泛应用在各大领域,IBM也开始研 究开发自己的消息中间件,3年后IBM的消息队列IBM MQ产品系列发布,之后的一段时间MQ系列进化 成了WebSphere MQ统治商业消息队列平台市场。

​ 包括后期微软也研发了自己的消息队列(MSMQ)

​ 各大厂商纷纷研究自己的MQ,但是他们是以商业化模式运营自己的MQ软件,商业MQ想要解决的是应用互通的问题,而不是创建标准接口来允许不同MQ产品互通。

不同消息中间件切换的问题

​ 所以有些大型的金融公司可能会使用来 自多个供应商的MQ产品,来服务企业内部不同的应用。那么问题来了,如果应用已经订阅了TIB MQ的 消息然后突然需要消费IBM MQ的消息,那么整个实现过程会很麻烦。

JMS标准

​ 为了解决这个问题,在2001年诞 生了 Java Message Service(JMS),JMS通过提供公共的Java API方式,隐藏单独MQ产品供应商的实现 接口,从而跨越了不同MQ消费和解决互通问题。从技术层面来说,Java应用程序只需要针对JMS API编 程,选择合适的MQ驱动即可。JMS会处理其他部分。这种方案实际上是通过单独标准化接口来整合很 多不同的接口,效果还是不错的,但是碰到了互用性的问题。

两套使用两种不同编程语言的程序如何通过它们的异步消息传递机制相互通信呢。

AMQP的出现

​ 这个时候就需要定义一个异步消息传递的通用标准所以AMQP(Advanced Message Queuing Protocol)高级消息队列协议产生了,它使用了一套标准的底层协议,加入了许多其他特征来支持互用性,为现代应用丰富了消息传递需求,针对标准编码的任 何人都可以和任意AMQP供应商提供的MQ服务器进行交互。

MQTT

​ 除了JMS和AMQP规范以外,还有一种MQTT(Message Queueing Telemetry[特莱米缺] Transport),它是专门为小设备设计的。因为计算性能不高的设备不能适应AMQP上的复杂操作,它 们需要一种简单而且可互用的方式进行通信。

​ 这是MQTT的基本要求,而如今,MQTT是物联网(IOT) 生态系统中主要成分之一

Kafka,它并没有遵循上面所说的协议规范,注重吞吐量,类似udp 和 tcp

Kafka的介绍

什么是Kafka

​ Kafka是一款分布式消息发布和订阅系统,它的特点是高性能、高吞吐量。

​ 最早设计的目的是作为LinkedIn的活动流和运营数据的处理管道。这些数据主要是用来对用户做用户画 像分析以及服务器性能数据的一些监控

​ 所以kafka一开始设计的目标就是作为一个分布式、高吞吐量的消息系统,所以适合运用在大数据传输 场景。

Kafka的应用场景

​ 由于kafka具有更好的吞吐量、内置分区、冗余及容错性的优点(kafka每秒可以处理几十万消息),让 kafka成为了一个很好的大规模消息处理应用的解决方案。

​ 所以在企业级应用上,主要会应用于如下几 个方面

行为跟踪

​ kafka可以用于跟踪用户浏览页面、搜索及其他行为。通过发布-订阅模式实时记录到对应的 topic中,通过后端大数据平台接入处理分析,并做更进一步的实时处理和监控

日志收集

​ 日志收集方面,有很多比较优秀的产品,比如Apache Flume,很多公司使用kafka代理日志 聚合。

​ 日志聚合表示从服务器上收集日志文件,然后放到一个集中的平台(文件服务器)进行处理。在 实际应用开发中,我们应用程序的log都会输出到本地的磁盘上,排查问题的话通过linux命令来搞定, 如果应用程序组成了负载均衡集群,并且集群的机器有几十台以上,那么想通过日志快速定位到问题, 就是很麻烦的事情了。所以一般都会做一个日志统一收集平台管理log日志用来快速查询重要应用的问 题。所以很多公司的套路都是把应用日志集中到kafka上,然后分别导入到es和hdfs上,用来做实时检索分析和离线统计数据备份等。而另一方面,kafka本身又提供了很好的api来集成日志并且做日志收集

Kafka本身的架构

​ 一个典型的kafka集群包含若干Producer

  • 可以是应用节点产生的消息
  • 也可以是通过Flume收集日志 产生的事件
  • 若干个Broker(kafka支持水平扩展)
  • 若干个Consumer Group
  • 一个 zookeeper集群。

​ kafka通过zookeeper管理集群配置及服务协同。

​ Producer使用push模式将消息发布 到broker,consumer通过监听使用pull模式从broker订阅并消费消息。

​ 多个broker协同工作,producer和consumer部署在各个业务逻辑中。

​ 三者通过zookeeper管理协调请求和转发。这样就组成了一个高性能的分布式消息发布和订阅系统。

​ 图上有一个细节是和其他mq中间件不同的点,producer 发送消息到broker的过程是push,而 consumer从broker消费消息的过程是pull,主动去拉数据。而不是broker把数据主动发送给consumer

名词解释

Broker

​ Kafka集群包含一个或多个服务器,这种服务器被称为broker。

​ broker端不维护数据的消费状态,提升了性能。

​ 直接使用磁盘进行存储,线性读写,速度快:

​ 避免了数据在JVM内存和系统内存之间的复制, 减少耗性能的创建对象和垃圾回收。

Producer

​ 负责发布消息到Kafka broker

Consumer

​ 消息消费者,向Kafka broker读取消息的客户端,consumer从broker拉取(pull)数据并进行处理。

Topic

​ 每条发布到Kafka集群的消息都有一个类别,这个类别被称为Topic。

  • 物理上

    • 不同Topic的消息分开存 储
  • 逻辑上

    • 一个Topic的消息虽然保存于一个或多个broker上但用户只需指定消息的Topic即可生产或消费数据而不必关心数据存于何处

Partition

​ Parition是物理上的概念,每个Topic包含一个或多个Partition.

Consumer Group

​ 每个Consumer属于一个特定的Consumer Group(可为每个Consumer指定group name,若不指定 group name则属于默认的group)

Topic & Partition

​ Topic在逻辑上可以被认为是一个queue,每条消费都必须指定它的Topic,可以简单理解为必须指明

​ 把这条消息放进哪个queue里。

​ 为了使得Kafka的吞吐率可以线性提高,物理上把Topic分成一个或多个 Partition,每个Partition在物理上对应一个文件夹,该文件夹下存储这个Partition的所有消息和索引文 件。若创建topic1和topic2两个topic,且分别有13个和19个分区,则整个集群上会相应会生成共32个 文件夹(本文所用集群共8个节点,此处topic1和topic2 replication-factor均为1)。

安装和配置

下载Kafka

wget https://archive.apache.org/dist/kafka/2.0.0/kafka_2.11-2.0.0.tgz
tar -zxvf kafka_2.11-2.0.0.tgz -C /usr/local

配置zookeeper

​ 因为kafka依赖于zookeeper来做master选举一起其他数据的维护,所以需要先启动zookeeper节点

​ kafka内置了zookeeper的服务,所以在bin目录下提供了这些脚本

zookeeper-server-start.sh
zookeeper-server-stop.sh

​ 在config目录下,存在一些配置文件

zookeeper.properties
server.properties

所以我们可以通过下面的脚本来启动zk服务,当然,也可以自己搭建zk的集群来实现

sudo sh zookeeper-server-start.sh -daemon ../config/zookeeper.properties

启动和停止kafka

​ 我们可以使用自己的zookeeper

​ 修改server.properties, 增加zookeeper的配置

zookeeper.connect=localhost:2181
  • 启动kafka

    sudo bin/kafka-server-start.sh -daemon config/server.properties
  • 停止Kafka

    sh bin/kafka-server-stop.sh -daemon config/server.properties

Kafka的基本操作

创建topic

sh bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 -partitions 1 --topic test
  • Replication-factor

    • 表示该topic需要在不同的broker中保存几份,这里设置成1,表示在两个broker中保存两份
  • partitions

    • 分区数

查看topic

sh bin/kafka-topics.sh --list --zookeeper localhost:2181
[zzy@116 kafka_2.11-2.0.0]$ sh bin/kafka-topics.sh --list --zookeeper localhost:2181
__consumer_offsets
first_topic
test
test_partition

创建消费者

sh bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test  --from-beginning

发送消息

sh bin/kafka-console-producer.sh --broker-list localhost:9092 --topic first_topic

集群环境安装

环境准备

  • 准备三台虚拟机
  • 分别把kafka的安装包部署在三台机器上

修改配置

以下配置修改均为server.properties

  • 分别修改三台机器的server.properties配置,同一个集群中的每个机器的id必须唯一
  • broker.id=0
    broker.id=1
    broker.id=2
  • 修改zookeeper的连接配置(指定为当前启动zookeeper的机器)

    zookeeper.connect=192.168.30.2:2181
  • 修改listeners配置

    • 如果配置了listeners,那么消息生产者和消费者会使用listeners的配置来进行消息的收发,否则, 会使用localhost
    • PLAINTEXT表示协议,默认是明文,可以选择其他加密协议

      • listeners=PLAINTEXT://192.168.13.102:9092
  • 分别启动三台服务器

微信扫一扫,分享到朋友圈

Kafka(1)-初识Kafka

网售名牌假机油被查获涉案超1亿 连带防伪验证码和网站全部为假

上一篇

三星Galaxy Z Fold2 5G国行版正式发布 起价16999元

下一篇

你也可能喜欢

Kafka(1)-初识Kafka

长按储存图像,分享给朋友