Kafka原理及Kafka群集部署

博文大纲:
一、Kafka概述
1)消息队列
2)为什么要使用消息队列?
3)什么是Kafka?
4)Kafka的特性
5)Kafka架构
6)Topic和Partition的区别
7)kafka流程图
8)Kafka的文件存储机制
9)数据的可靠性和持久性保证
10)leader选举
二、部署单机Kafka
1)部署Kafka
2)测试Kafka
三、部署Kafka群集
1)环境准备
2)部署zookeeper群集
3)部署Kafka群集

一、Kafka概述

1)消息队列

1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除)

点对点模型通常是一个基于拉取或者轮询的消息传送模型,这种模型从队列中请求信息,而不是将消息推送到客户端。这个模型的特点是发送到队列的消息被一个且只有一个接收者接收处理,即使有多个消息监听者也是如此;

2)发布/订阅模式(一对多,数据生产后,推送给所有订阅者)

发布订阅模型则是一个基于推送的消息传送模型。发布订阅模型可以有多种不同的订阅者,临时订阅者只在主动监听主题时才接收消息,而持久订阅者则监听主题的所有消息,即使当前订阅者不可用,处于离线状态。

2)为什么要使用消息队列?

1)解耦

允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。

2)冗余

消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的"插入-获取-删除"范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。

3)扩展性

因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可。

4)灵活性&&削峰填谷

在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见。如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

5)可恢复性

系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。

6)顺序保证

在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。(Kafka 保证一个 Partition 内的消息的有序性)

7)缓冲

有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息的处理速度不一致的情况。

8)异步通信

很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。

3)什么是Kafka?

kafka是由Apache软件基金会发布的一个开源流处理平台,由Scala和Java编写。它是一种高吞吐量的分布式发布的订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群来提供实时的消息。

4)Kafka的特性

kafka是一种高吞吐量的分布式发布订阅消息系统,具有以下特性:
1)通过磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能;
2)持久性:使用文件性存储,日志文件存储消息,需要写入硬盘,采用达到一定阈值才写入硬盘,从而减少磁盘I/O,如果kafka突然宕机,数据会丢失一部分;
3)高吞吐量:即使是非常普通的硬件kafka也可以支持每秒数百万的消息;
4)支持通过kafka服务器和消费机集群来分区消息;
5)支持Hadoop并行数据加载;

5)Kafka架构

架构图中的各个组件作用:
1)Producer :消息生产者,就是向 kafka broker 发消息的客户端;
2)Broker :一台 kafka 服务器就是一个 broker。一个集群由多个broker 组成。一个 broker可以容纳多个 topic;
3)Consumer :消息消费者,向 kafka broker 取消息的客户端;
4)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。partition 中的每条消息都会被分配一个有序的 id(offset)。kafka 只保证按一个 partition 中的顺序将消息发给consumer,不保证一个 topic 的整体(多个 partition 间)的顺序;
5)Topic :Kafka根据topic对消息进行归类,发布到Kafka集群的每条消息都需要指定一个topic;
6)ConsumerGroup:每个Consumer属于一个特定的Consumer Group,一条消息可以发送到多个不同的Consumer Group,但是一个Consumer Group中只能有一个Consumer能够消费该消息;

6)Topic和Partition的区别

一个topic可以认为一个一类消息,每个topic将被分成多个partition,每个partition在存储层面是append log文件。任何发布到此partition的消息都会被追加到log文件的尾部,每条消息在文件中的位置称为offset(偏移量),offset为long型的数字,它唯一标记一条消息。每条消息都被append到partition中,是顺序写磁盘,因此效率非常高(顺序写磁盘比随机写内存的速度还要高,这是kafka高吞吐率的一个很重要的保证)。

每一条消息被发送到broker中,会根据partition规则选择被存储到哪一个partition(默认采用轮询的方式进行写入数据)。如果partition规则设置合理,所有消息可以均匀分布到不同的partition里,这样就实现了水平扩展。(如果一个topic对应一个文件,那这个文件所在的机器I/O将会成为这个topic的性能瓶颈,而partition解决了这个问题),如果消息被消费则保留append.log两天。

7)kafka流程图


如上图所示,一个典型的kafka体系架构包括若干Producer(可以是服务器日志,业务数据,页面前端产生的page view等),若干个broker(kafka支持水平扩展,一般broker数量越多,集群吞吐率越高),若干Consumer(Group),以及一个Zookeeper集群。kafka通过Zookeeper管理集群配置,选举出leader,以及在consumer group发生变化时进行重新调整。Producer使用push(推)模式将消息发布到broker,consumer使用pull(拉)模式从broker订阅并消费消息。

zookeeper群集中有两个角色:leader和follower,leader对外提供服务,follower负责leader里面所产生内容同步消息写入生成时产生replicas(副本);

kafka的高可靠性的保证来源于其健壮的副本(replicas)策略。通过调节其副本相关参数,可以使得kafka在性能和可靠性之间运转之间的游刃有余。kafka从0.8.x版本开始提供partition级别的复制的。

8)Kafka的文件存储机制

kafka中消息是以topic进行分类的,生产者通过topic向kafka broker发送消息,消费者通过topic读取数据。然而topic在物理层面又能以partition为分组,一个topic可以分为若干个partition,partition还可以细分为segment,一个partition物理上由多个segment组成。

为了便于说明问题,假设这里只有一个kafka集群,且这个集群只有一个kafka broker,也就是只有一台物理机。在这个kafka broker的server.properties配置文件中定义kafka的日志文件存放路径以此来设置kafka消息文件存储目录,与此同时创建一个topic:test,partition的数量为4,启动kafka就可以在日志存放路径中看到生成4个目录,在kafka文件存储中,同一个topic下有多个不同的partition,每个partition为一个目录,partition的名称规则为:topic名称+有序序号,第一个序号从0开始。

segment是什么?

如果就以partition为最小存储单位,我们可以想象当Kafka producer不断发送消息,必然会引起partition文件的无限扩张,这样对于消息文件的维护以及已经被消费的消息的清理带来严重的影响,所以这里以segment为单位又将partition细分。每个partition(目录)相当于一个巨型文件被平均分配到多个大小相等的segment(段)数据文件中(每个segment 文件中消息数量不一定相等)这种特性也方便old segment的删除,即方便已被消费的消息的清理,提高磁盘的利用率。每个partition只需要支持顺序读写就行。

segment文件由两部分组成,分别为“.index”文件和“.log”文件,分别表示为segment索引文件和数据文件。这两个文件的命令规则为:partition全局的第一个segment从0开始,后续每个segment文件名为上一个segment文件最后一条消息的offset值(偏移量),数值大小为64位,20位数字字符长度,没有数字用0填充。

9)数据的可靠性和持久性保证

当producer向leader发送数据时,可以通request.required.acks参数来设置数据可靠性的级别:

  • 1(默认):producer的leader已成功收到数据并得到确认。如果leader宕机了,则会丢失数据;
  • 0 :producer无需等待来自broker的确认而继续发送下一批消息。这种情况下数据传输效率最高,但是数据可靠性确是最低的;
  • -1:producer需要等待所有follower都确认接收到数据后才算一次发送完成,可靠性最高;

10)leader选举

一条消息只有被所有follower都从leader复制过去才会被认为已提交。这样就避免了部分数据被写进了leader,还没来得及被任何follower复制就宕机了,而造成数据丢失。而对于producer而言,它可以选择是否等待消息commit。

一种非常常用的选举leader的方式是“少数服从多数”,在进行数据的复制过程中,存在多个follower,并且每个follower的数据速度都不相同,当leader宕机后,当前的follower上谁的数据最多谁就是leader。

二、部署单机Kafka

1)部署Kafka

Kafka服务默认需要依赖Java环境,本次使用Centos 7系统,默认已经具备Java的环境。

Kafka群集所需软件下载链接:https://pan.baidu.com/s/1VHUH-WsptDB2wOugxvfKVg
提取码:47x7

[[email protected] ~]# tar zxf kafka_2.11-2.2.1.tgz
[[email protected] ~]# mv kafka_2.11-2.2.1 /usr/local/kafka
[[email protected] ~]# cd /usr/local/kafka/bin/
[[email protected] bin]# ./zookeeper-server-start.sh ../config/zookeeper.properties &
#启动zookeeper,启动时需指定zookeeper的配置文件
#需添加“&”符号,表示后台运行,否则会占用前台的终端
[[email protected] bin]#  ./kafka-server-start.sh ../config/server.properties &
#启动kafka,启动方式与启动zookeeper一样
[[email protected] bin]# netstat -anpt | grep 9092
#kafka的监听端口为9092,确认端口在监听的状态

由于kafka是通过zookeeper来调度的,所以,即使是单机kafka也需要启动zookeeper服务,kafka的安装目录下是默认集成了zookeeper的,直接启动即可。

2)测试Kafka

[[email protected] bin]# ./kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic test
#在本机创建一个topic,名称为test,副本数量为1,分区数量为1
[[email protected] bin]# ./kafka-topics.sh --list --bootstrap-server localhost:9092
#查看本机的topic
[[email protected] bin]# ./kafka-console-producer.sh --broker-list localhost:9092 --topic test
#向创建的topic中添加消息,消息内容自定义
>aaaa
>bbbb
>cccc
[[email protected] bin]# ./kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
aaaa
bbbb
cccc
#开启新的终端,进行读取消息测试,“--from-beginning”表示从开头读取

测试成功!

三、部署Kafka群集

1)环境准备

系统版本 主机名 IP地址 运行的服务
Centos 7 kafka01 192.168.1.6 Kafka+zookeeper
Centos 7 kafka02 192.168.1.7 Kafka+zookeeper
Centos 7 kafka03 192.168.1.8 Kafka+zookeeper

2)部署zookeeper群集

1)主机kafka01配置

[[email protected] ~]# tar zxf zookeeper-3.4.9.tar.gz
[[email protected] ~]# mv zookeeper-3.4.9 /usr/local/zookeeper
#安装zookeeper
[[email protected] ~]# cd /usr/local/zookeeper/conf
[[email protected] conf]# cp -p zoo_sample.cfg zoo.cfg
[[email protected] conf]#  sed -i ‘s/dataDir=\/tmp\/zookeeper/dataDir=\/usr\/local\/zookeeper\/data/g‘ zoo.cfg
[[email protected] conf]#  echo "server.1 192.168.1.6:2888:3888" >> zoo.cfg
[[email protected] conf]#  echo "server.2 192.168.1.7:2888:3888" >> zoo.cfg
[[email protected] conf]#  echo "server.3 192.168.1.8:2888:3888" >> zoo.cfg
[[email protected] conf]# egrep -v ‘^$|^#‘ zoo.cfg        #更改后的配置文件
tickTime=2000            #节点之间的心跳检测时间单位为毫秒
initLimit=10      #节点之间检查失败次数超过后断开相应的节点
syncLimit=5      #达到5个访问进行同步数据
dataDir=/usr/local/zookeeper/data    #日志文件存放路径
clientPort=2181              #监听端口
server.1 192.168.1.6:2888:3888
server.2 192.168.1.7:2888:3888
server.3 192.168.1.8:2888:3888
#声明参与集群的主机,2888和3888端口用于群集内部通信
[[email protected] conf]# mkdir /usr/local/zookeeper/data
[[email protected] conf]# echo 1 > /usr/local/zookeeper/data/myid
#创建所需目录及设置节点的ID号
[[email protected] conf]# scp -r /usr/local/zookeeper/ [email protected]:/usr/local/
[[email protected] conf]# scp -r /usr/local/zookeeper/ [email protected]:/usr/local/
#将配置好的zookeeper目录复制到群集内的其他节点
[[email protected] conf]# /usr/local/zookeeper/bin/zkServer.sh start
[[email protected] conf]# netstat -anpt | grep 2181
#确认zookeeper服务端口正在监听

2)主机kafka02配置

[[email protected] ~]# echo 2 > /usr/local/zookeeper/data/myid
#修改ID号为2
[[email protected] ~]# /usr/local/zookeeper/bin/zkServer.sh start
#启动zookeeper

3)主机kafka03配置

[[email protected] ~]#  echo 3 > /usr/local/zookeeper/data/myid
#修改ID号为3
[[email protected] ~]#  /usr/local/zookeeper/bin/zkServer.sh start
#启动zookeeper

4)查看zookeeper群集内节点的角色

[[email protected] conf]#  /usr/local/zookeeper/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: follower         #角色为follower
[[email protected] ~]#  /usr/local/zookeeper/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: follower         #角色为follower
[[email protected] ~]#  /usr/local/zookeeper/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: leader      #角色为leader

3)部署Kafka群集

1)主机kafka01配置

[[email protected] ~]# tar zxf kafka_2.11-2.2.1.tgz
[[email protected] ~]# mv kafka_2.11-2.2.1 /usr/local/kafka
#安装kafka
[[email protected] ~]# cd /usr/local/kafka/config/
[[email protected] config]# sed -i ‘s/broker.id=0/broker.id=1/g‘ server.properties
[[email protected] config]# sed -i ‘s/#listeners=PLAINTEXT:\/\/:9092/listeners=PLAINTEXT:\/\/192.168.1.6:9092/g‘ server.properties
[[email protected] config]# sed -i ‘s/#advertised.listeners=PLAINTEXT:\/\/your.host.name:9092/advertised.listeners=PLAINTEXT:\/\/192.168.1.6:9092/g‘ server.properties
[[email protected] config]# sed -i ‘s/log.dirs=\/tmp\/kafka-logs/log.dirs=\/usr\/local\/zookeeper\/data/g‘ server.properties
[[email protected] config]#  sed -i ‘s/zookeeper.connect=localhost:2181/zookeeper.connect=192.168.1.6:2181,192.168.1.7:2181,192.168.1.8:2181/g‘ server.properties
[[email protected] config]#  sed -i ‘s/zookeeper.connection.timeout.ms=6000/zookeeper.connection.timeout.ms=600000/g‘ server.properties
#修改kafka的配置文件
[[email protected] config]# egrep -v ‘^$|^#‘ server.properties
#修改后的配置文件
broker.id=1     #kafka的ID号,这里为1,其他节点依次是2、3
listeners=PLAINTEXT://192.168.1.6:9092   #节点监听地址,填写每个节点自己的IP地址
advertised.listeners=PLAINTEXT://192.168.1.6:9092    #集群中节点内部交流使用的端口,填写每个节点自己的IP地址
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/usr/local/zookeeper/data
num.partitions=1
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.1.62:2181,192.168.1.7:2181,192.168.1.8:2181
#声明链接zookeeper节点的地址
zookeeper.connection.timeout.ms=600000
#修改这的时间,单位是毫秒,为了防止连接zookeeper超时
group.initial.rebalance.delay.ms=0
[[email protected] config]# scp -r /usr/local/kafka/ [email protected]:/usr/local/
[[email protected] config]# scp -r /usr/local/kafka/ [email protected]:/usr/local/
#将修改后的kafka目录发送至其他节点
[[email protected] bin]# ./kafka-server-start.sh ../config/server.properties &
#启动kafka
[[email protected] bin]# netstat -anpt | grep 9092
确认端口在监听

2)主机kafka02配置

[[email protected] ~]# cd /usr/local/kafka/
[[email protected] kafka]#  sed -i ‘s/broker.id=1/broker.id=2/g‘ config/server.properties
[[email protected] kafka]# sed -i ‘s/192.168.1.6:9092/192.168.1.7:9092/g‘ config/server.properties
#修改与kafka01冲突之处
[[email protected] kafka]# cd bin/
[[email protected] bin]#  ./kafka-server-start.sh ../config/server.properties &
#启动kafka
[[email protected] bin]# netstat -anpt | grep 9092
#确认端口在监听

3)主机kafka03配置

[[email protected] ~]# cd /usr/local/kafka/
[[email protected] kafka]# sed -i ‘s/broker.id=1/broker.id=3/g‘ config/server.properties
[[email protected] kafka]# sed -i ‘s/192.168.1.6:9092/192.168.1.8:9092/g‘ config/server.properties
#修改与kafka01冲突之处
[[email protected] kafka]# cd bin/
[[email protected] bin]#  ./kafka-server-start.sh ../config/server.properties &
#启动kafka
[[email protected] bin]# netstat -anpt | grep 9092
#确认端口在监听

4)发布和订阅消息测试

[[email protected] bin]#  ./kafka-topics.sh --create --bootstrap-server 192.168.1.6:9092 --replication-factor 3 --partitions 1 --topic my-replicated-topic
#创建名为my-replicated-topic的topic
[[email protected] bin]# ./kafka-topics.sh --describe --bootstrap-server 192.168.1.6:9092 --topic my-replicated-topic
#查看topic的状态和leader
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:segment.bytes=1073741824
#返回的信息表示partition数量为1,副本数量为3,segment字节数为1073741824
    Topic: my-replicated-topic  Partition: 0    Leader: 1   Replicas: 1,3,Isr: 1,3,2
#名称为“my-replicated-topic”,ID为1的节点为leader
[[email protected] bin]#  ./kafka-console-producer.sh --broker-list 192.168.1.6:9092 --topic my-replicated-topic
#向名为my-replicated-topic的topic 中插入数据进行测试
>aaaaaaaa
>bbbbbbbbbbbbbbb
>ccccccccccccccccccccccc
[[email protected] bin]# ./kafka-console-consumer.sh --bootstrap-server 192.168.1.7:9092 --from-beginning --topic my-replicated-topic
#在其他节点上查看插入的数据
aaaaaaaa
bbbbbbbbbbbbbbb
ccccccccccccccccccccccc

5)模拟leader宕机,查看topic的状态及新的leader

[[email protected] bin]# ./kafka-topics.sh --describe --bootstrap-server 192.168.1.6:9092 --topic my-replicated-topic
#查看名为my-replicated-topic的topic状态
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:segment.bytes=1073741824
    Topic: my-replicated-topic  Partition: 0    Leader: 1   Replicas: 1,3,Isr: 1,3,2
#可以看出ID号为1的节点是leader
[[email protected] bin]# ./kafka-server-stop.sh
#ID号为1的节点停止kafka服务
[[email protected] bin]#  ./kafka-topics.sh --describe --bootstrap-server 192.168.1.7:9092 --topic my-replicated-topic
#在第二个节点上查看topic状态
Topic:my-replicated-topic   PartitionCount:1    ReplicationFactor:3 Configs:segment.bytes=1073741824
    Topic: my-replicated-topic  Partition: 0    Leader: 3   Replicas: 1,3,Isr: 3,2
#可以看出leader换成了ID为3的节点

———————— 本文至此结束,感谢阅读 ————————

原文地址:https://blog.51cto.com/14157628/2473982

时间: 2024-10-10 10:35:48

Kafka原理及Kafka群集部署的相关文章

Kafka原理及单机部署

博文大纲:一.kafka介绍及原理二.部署单机kafka 一.kafka介绍及原理 kafka是由Apache软件基金会发布的一个开源流处理平台,由Scala和Java编写.它是一种高吞吐量的分布式发布的订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据. 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素. 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决. 对于像Hadoop一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可

大数据技术之_10_Kafka学习_Kafka概述+Kafka集群部署+Kafka工作流程分析+Kafka API实战+Kafka Producer拦截器+Kafka Streams

第1章 Kafka概述1.1 消息队列1.2 为什么需要消息队列1.3 什么是Kafka1.4 Kafka架构第2章 Kafka集群部署2.1 环境准备2.1.1 集群规划2.1.2 jar包下载2.2 Kafka集群部署2.3 Kafka命令行操作第3章 Kafka工作流程分析3.1 Kafka 生产过程分析3.1.1 写入方式3.1.2 分区(Partition)3.1.3 副本(Replication)3.1.4 写入流程3.2 Broker 保存消息3.2.1 存储方式3.2.2 存储策

filebeat+kafka+ELK5.4安装与部署

用ELK打造强大的日志分析平台,具体拓扑结构如下: 在这里我们将进行kafka+filebeat+ELK5.4的部署 各软件版本 jdk-8u131-linux-i586.tar.gz filebeat-5.4.0-linux-x86_64.tar.gz elasticsearch-5.4.0.tar.gz kibana-5.4.0-linux-x86_64.tar.gz logstash-5.4.0.tar.gz kafka_2.11-0.10.0.0.tgz 1.JDK安装配置(略过) 2.

Kafka 入门之集群部署遇到问题

最近,因为上级主管部门需要通过使用Kafka向其传输文件,又因为此前没有接触过kafka,所以在部署测试kafka程序期间遇到很多问题,在这里总结4个问题与1个建议,方便入门者参考也便于遇到类似问题进行查阅完善. 1.Kafka java代码与Kafka 软件的关系 Kafka java代码与Kafka 软件之间究竟有什么关系呢?Kafka java代码中已经使了kafka-clients-0.8.2.1.jar,kafka_2.11-0.8.2.1.jar,那么还需要安装kafka_2.11-

kafka原理解析

转载 Kafka Kafka是最初由Linkedin公司开发,是一个分布式.支持分区的(partition).多副本的(replica),基于zookeeper协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于hadoop的批处理系统.低延迟的实时系统.storm/Spark流式处理引擎,web/nginx日志.访问日志,消息服务等等,用scala语言编写,Linkedin于2010年贡献给了Apache基金会并成为顶级开源 项目. 1.前言 消息队列的性

(项目实战)大数据Kafka原理剖析及(实战)演练视频教程

38套大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程 视频课程包含: 38套大数据和人工智能精品高级课包含:大数据,云计算,架构,数据挖掘实战,实时推荐系统实战,电视收视率项目实战,实时流统计项目实战,离线电商分析项目实战,Spark大型项目实战用户分析,智能客户系统项目实战,Linux基础,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hiv

Kafka 原理和实战

本文首发于 vivo互联网技术 微信公众号 https://mp.weixin.qq.com/s/bV8AhqAjQp4a_iXRfobkCQ作者简介:郑志彬,毕业于华南理工大学计算机科学与技术(双语班).先后从事过电子商务.开放平台.移动浏览器.推荐广告和大数据.人工智能等相关开发和架构.目前在vivo智能平台中心从事 AI中台建设以及广告推荐业务.擅长各种业务形态的业务架构.平台化以及各种业务解决方案.博客地址:http://arganzheng.life. 背景 最近要把原来做的那套集中式

Kafka原理与java simple producer示例

brokers和消费者使用zk来获取状态信息和追踪消息坐标. 每一个partition是一个有序的,不可变的消息序列. 只有当partition里面的file置换到磁盘文件以后,才开放给消费者来消费. 每一个partition是跨服务器地被复制到其他地方,为了容错的目的. 这个partition可以理解为hadoop中block的单位. 但是只有被选择为leader的服务器partition来服务消费者的读和生产者的写, followers只是把数据同步过去.同步状态较好的被列入ISR,这些IS

kafka原理和集群

搭建kafka 首先要搭建好 前面的 zookeeper 环境 ? kafka是什么? – Kafka是由LinkedIn开发的一个分布式的消息系统 – kafka是使用Scala编写 – kafka是一种消息中间件 ? 为什么要使用 kafka – 解耦.冗余.提高扩展性.缓冲 – 保证顺序,灵活,削峰填谷 – 异步通信 kafka集群 ? kafka 角色与集群结构 – producer:生产者,负责发布消息 – consumer:消费者,负责读取处理消息 – topic: 消息的类别 –