1、Kafka学习分享-V1.0

Kafka学习分享

.1       什么是Kafka

Apache Kafka是一个开源的流处理平台,由 Apache Software Foundation使用Scala and Java编写发展而来。Kafka?用于构建实时数据管道和流媒体应用。 它具有水平可扩展性,容错性,快速性,并在数千家公司生产中运行。

它的主要功能:数据流的发布和订阅、数据流的处理、数据流的存储。像一个消息系统一样发布和订阅数据流,有效且实时地处理数据流,在一个分布式备份的集群中安全地处理存储数据流。

.2       Kafka详细介绍

.2.1             流处理平台的三个关键功能

l  它允许发布和订阅可记录的流。在这个方面,它类似于一个消息队列或者一个企业消息系统。

l  它允许以一种容错的方式存储可记录的流。

l  它允许当可记录的流发生的时候来处理它们。

.2.2             Kafka的好处是什么?

它被用于两类广泛的应用程序:

l  构建能够可靠地在系统和应用程序之间获取数据的实时流数据管道。

l  构建对流数据转换和响应的实时流应用程序。

.2.3             Kafka是如何运行的?

为了理解Kafka是怎样做这些事情的,让我们自下而上深入探索Kafka的能力。

一些概念

l  Kafka作为一个集群在一个或多个服务器上运行;

l  Kafka集群存储可记录的流的类别,称为topics;

l  每条记录包含一个key,一个value和一个timestamp;

Kafka有四个核心的APIs

l  Producer API 允许一个应用程序将一条可记录的流发布到一个或多个Kafka topics.

l  Consumer API 允许一个应用程序订阅一个或多个Kafka topics,并且处理生成给它们的可记录流。

l  Streams API允许一个应用程序扮演一个流处理器,消费来自一个或多个topics的输入流并且生产输出流给一个或多个topics,有效地将输入流转换成输出流。

l  Connector API允许构建和运行可复用的,将Kafka topics和现有应用程序或数据系统连接起来的生产者或消费者。如,一个相关数据的连机器可能捕获一张表的每一个变化。

在Kafka中,客户端和服务端之间的通信是由一个简单的、高性能的、跨语言的TCP协议完成的。这种协议是版本控制的,并且与旧版本保持后向兼容。我们提供了一个Java客户端给Kafka,但是客户端支持多种语言。

Topics and Logs

一个Topic 就是记录被发布的一个类别或者提要名称。Kafka 的topics总是多订阅用户的,换句话说,一个topic可以有0个、一个、或多个订阅了它的数据的消费者。

对于每一个topic,Kafka集群保持一个分区的log,如下图:

每一个分区都是一个有序的,不变的可记录的序列,这些序列不断地添加到一个结构化的提交日志中。分区的记录各自都被分配一个连续的ID号,被称为偏移量,偏移量在分区中唯一标识每条记录。

Kafka集群保留所有发布的记录无论他们是否被消费,使用一个可配置的保留期。例如:如果保留策略设置为两天,然后在一个记录被发布后的两天之内,它可以用于消费,之后它将被丢弃以释放空间。Kafka可以存储很长时间的数据且性能不受数据量大小的影响。

事实上,在每一个消费者基础上保留的唯一的元数据是日志中消费者的偏移量或者位置。这个偏移量是由消费者控制的:通常,消费者会线性地提高它的偏移量来读取记录,但是,事实上,由于位置是由消费者控制的,消费者可以按照它想要的任何顺序来消费记录。例如,一个消费者可以重新设置为旧的偏移量,以重新处理过去的数据,或者跳到最近的记录,并从“now”开始消费。

这种组合的特性意味着Kafka消费者是非常便宜的,他们的来去不会对集群或者其他的消费者产生一些影响。例如:你能够使用我们的命令行工具来“tail”任何topic的内容,而不需要改变任何被现有消费者消费的内容。

日志中的分区有几个目的。首先,他们允许日志扩展到超出一个适合单个服务器的大小。每个独立的分区必须适合承载它的服务器,但是一个topic应该有许多的分区,,因此它能够处理任意数量的数据。其次,他们作为一个并行的单元,在这方面做的更多。

分布式

日志的分区分布在Kafka集群中不同的服务器上,每个服务器处理数据并请求共享分区。每个分区在一个可配置数量的服务器上进行复用,用于容错。

每个分区有一个作为“leader”的服务器和0个或多个作为“followers”的服务器。主服务器处理该分区的所有读写请求,而从服务器被动地复制主服务器。如果主服务器出现故障,那么其他从服务器中的一个将自动成为新的主服务器。每个服务器充当某些分区的领导者,并为其他一些分区提供一个追随者,因此在集群中负载均衡。

生产者

生产者发布它们选择的数据给每个topics。生产者负责在topic中选择哪条记录分配到哪个分区上。这可以以循环的方式简单实现负载均衡或者它可以根据一些语义分区函数(据说是根据记录上的一些关键字)来完成。

消费者

消费者给自己贴上一个消费者团体的标签,每个被发布到一个topic的记录都被交付到每个订阅消费者团体中的一个消费者实例。消费者实例可以在单独的进程中,也可以在单独的机器上。

如果所有的消费者实例有相同的消费者团体,然后这些记录将在这些消费者实例中有效地实现负载均衡。

如果所有的消费者实例有不同的消费者团体,然后每个记录将被广播到所有的消费者进程中。

一个两个服务器的Kafka集群承载4个分区(P0-P3),其中有两个消费者团体。消费者团体A有两个消费者实例,并且消费者团体B有四个消费者实例。

然而,更常见的是,我们发现有少量消费者群体的topics,每个消费者都是“logical subscriber”。每个团体有许多用于可伸缩性和容错的消费者实例组成。这只不过是,订阅-发布语法,订阅用户是一组消费者而不是单个的进程。

在Kafka中实现消费的方式是将日志中的分区划分成多个消费者实例,因此,每个实例都是在任何时间点上“公平分享”分区的唯一的消费者。

团体中维护资格的进程由Kafka协议自由控制的。如果一个新的实例加入这个团体,他们将从其他团体成员中接管一些分区;如果一个实例死了,它的分区将被分配给其他剩余的实例。

Kafka只在一个分区内提供记录的一个完整顺序,而不是在一个topic内的不同分区之间。对于大多数应用程序来说,每个分区排序和按主键分区数据的能力都是足够的。但是,如果你需要所有的记录的一个完整的顺序,这可以通过一个只有一个分区的topic实现,尽管这个将意味着每个消费者团体只有一个消费进程。

保障

一个高级别的Kafka将提供一下保障:

l  消息从一个生产者发送给一个特定的主题分区时将会附加上他们被发送的顺序。也就是说,如果一条记录M1和M2是有同一个生产者发送出去的,并且M1是先发送出去的,则M1的偏移量将会比M2的低,并且出现在log里更早。

l  一个消费者实例将按他们在log中存储的顺序来理解这些记录。

l  对于一个具有备份元素N的topic,我们将容忍N-1服务器故障,而不会丢失任何记录到日志中的记录。

More details on these guarantees are given in the design section of the documentation.

.2.4             Kafka作为一个消息系统

Kafka消息系统与传统企业消息系统的对比。

传统消息有两种模型:队列和发布-订阅( queuing and publish-subscribe.)。

在对列中,一池的消费者将从一个服务上选读,并且每条记录都会被其中的一个消费者读到;在发布-订阅中,记录将被广播到所有的消费者。这两种模型都有其优势和劣势。序列的优势是它允许将数据处理进程分配给多个消费者实例,这样可以让你扩展你的进程。不幸的是,序列不是多用户的,一旦一个进程读取数据,数据就会消失。发布-订阅,允许你广播数据到多个进程,但是由于每条消失数据去了每个订阅者,因此没有办法扩展进程。

Kafka中消费者团体的概念概括了这两个概念。与队列一样,消费者组允许您通过一系列进程(消费者组的成员)来划分处理。与发布订阅一样,Kafka允许您将消息广播到多个消费者组。

Kafka模型的优点是,每个主题都具有这两个属性 - 它可以扩展处理,也是多用户 - 不需要选择一个或另一个。

Kafka也比传统的消息系统有更强的顺序保证。

传统队列在服务器上保存顺序的记录,如果多个消费者从队列中消费,则服务器按照存储顺序输出记录。然而,虽然服务器按顺序输出记录,但是记录被异步传递给消费者,所以它们可能会在不同的消费者处按顺序到达。这意味着在并行消耗的情况下,记录的排序丢失。消息传递系统通常通过使“唯一消费者”的概念只能让一个进程从队列中消费,但这当然意味着处理中没有并行性。

卡夫卡做得更好 通过在主题中有一个并行概念(分区),Kafka能够在消费者流程池中提供排序保证和负载平衡。这通过将主题中的分区分配给消费者组中的消费者来实现,使得每个分区被组中的一个消费者消耗。通过这样做,我们确保消费者是该分区的唯一读者,并按顺序消耗数据。由于有许多分区,这仍然平衡了许多消费者实例的负载。但请注意,消费者组中的消费者实例不能超过分区。

.2.5             卡夫卡作为存储系统

允许发布消息消除消息的消息队列有效地充当飞行中消息的存储系统。卡夫卡的不同之处在于它是一个很好的存储系统。

写入Kafka的数据写入磁盘并进行复制以进行容错。Kafka允许生产者等待确认,以便在完全复制之前写入不被认为是完整的,并且即使写入服务器失败,也保证持久写入。

Kafka的磁盘结构使用缩放,Kafka将执行相同的操作,无论您在服务器上是否有50 KB或50 TB的持久数据。

作为严重存储并允许客户端控制其读取位置的结果,您可以将Kafka视为专用于高性能,低延迟的提交日志存储,复制和传播的专用分布式文件系统。

.2.6             Kafka流处理

仅读取,写入和存储数据流是不够的,目的是实现流的实时处理。

在卡夫卡,流处理器是从输入主题接收数据流的任何东西,对此输入执行一些处理,并生成持续的数据流以输出主题。

例如,零售应用程序可能会收到销售和出货的输入流,并输出根据该数据计算的重新排序和价格调整。

可以直接使用生产者和消费者API进行简单处理。然而对于更复杂的转换,Kafka提供了一个完全集成的Streams API。这允许构建应用程序进行非平凡处理,以计算流中的聚合或将流连接在一起。

该设施有助于解决这种类型的应用程序面临的困难问题:处理无序数据,重新处理输入作为代码更改,执行有状态计算等。

流API基于Kafka提供的核心原语构建:它使用生产者和消费者API进行输入,使用Kafka进行有状态存储,并在流处理器实例之间使用相同的组机制来实现容错。

.2.7             放在一起

消息,存储和流处理的这种组合似乎是不寻常的,但是卡夫卡作为流媒体平台的角色至关重要。

像HDFS这样的分布式文件系统允许存储用于批处理的静态文件。有效像这样的系统允许存储和处理历史从过去的数据。

传统的企业邮件系统允许处理将在您订阅之后到达的未来邮件。以这种方式构建的应用程序在未来数据到达时处理。

Kafka结合了这两种功能,组合对于Kafka作为流应用程序和流数据管道平台来说至关重要。通过组合存储和低延迟订阅,流式应用程序可以以相同的方式处理过去和未来的数据。这是一个单一的应用程序可以处理历史记录数据,而不是在到达最后一个记录时结束,它可以随着将来的数据到达而继续处理。这是一个广泛的流处理概念,其中包含批处理以及消息驱动应用程序。

同样,对于流数据流水线,订阅到实时事件的组合使得可以使用Kafka进行非常低延迟的管道; 但是可靠性地存储数据的能力使得可以将其用于必须保证数据传送的关键数据,或者与仅负载数据的离线系统集成,或者可能会长时间停机以进行维护。流处理设备可以在数据到达时转换数据。有关Kafka提供的保证,apis和功能的更多信息,请参阅其余的文档。”

PS:本文完全参考“https://kafka.apache.org/”,即kafka官方主页。

时间: 2024-12-27 09:52:47

1、Kafka学习分享-V1.0的相关文章

3、Kafka学习分享|快速入门-V3.0

Kafka学习分享|快速入门 这个教程假定你刚开始是新鲜的,没有现存的Kafka或者Zookeeper 数据.由于Kafka控制控制脚本在Unix和Windows平台不同,在Windows平台使用bin\windows\ 代替 bin/,并且更改脚本扩展名为.bat. 第一步:下载编码 下载0.10.2.0版本并且解压它. 第二步:启动服务器 Kafka使用Zookeeper,因此如果你没有Zookeeper server,你需要先启动a ZooKeeper server.你可以使用Kafka的

【原创】Hacker学习发展流程图 V1.0

这两张Hacker学习发展流程图都来自A1PASS之手,V0.2为2009推出的,V1.0为2015推出,在这里保存这两张图作为自己学习的方向,希望自己有朝一日也能成为IT大牛!!!

从零开始学习H5应用(1)——V1.0版,简单页面滑动切换效果

可曾看见过那些在微信上转疯了的H5神作?好生羡慕啊,那么从今天开始,我将从零开始学习制作H5应用,看看那么漂亮的页面是怎么样一步一步形成的. 准备 在学习制作H5应用之前,必须具备以下基础前提: HTML,CSS,JS基本编写与制作能力 了解了H5中的各种新特性 有一定的逻辑思维能力,可以将复杂任务通过分析简化为若干原子事件来处理 看得懂汉语,以及教程中出现的前端术语. 任务 这是本系列的第一篇,任务非常简单, 制作一个具有3张页面,每次只显示其中一张页面,当手指向上滑动设备屏幕时当前页面消失下

_00024 尼娜抹微笑伊拉克_云计算ClouderaManager以及CHD5.1.0群集部署安装文档V1.0

笔者博文:妳那伊抹微笑 itdog8 地址链接 : http://www.itdog8.com(个人链接) 博客地址:http://blog.csdn.net/u012185296 博文标题:_00024 妳那伊抹微笑_云计算之ClouderaManager以及CHD5.1.0集群部署安装文档V1.0 个性签名:世界上最遥远的距离不是天涯,也不是海角.而是我站在妳的面前.妳却感觉不到我的存在 技术方向:Flume+Kafka+Storm+Redis/Hbase+Hadoop+Hive+Mahou

_00024 妳那伊抹微笑_云计算之ClouderaManager以及CHD5.1.0集群部署安装文档V1.0

博文作者:妳那伊抹微笑 博客地址:http://blog.csdn.net/u012185296 博文标题:_00024 妳那伊抹微笑_云计算之ClouderaManager以及CHD5.1.0集群部署安装文档V1.0 个性签名:世界上最遥远的距离不是天涯,也不是海角,而是我站在妳的面前,妳却感觉不到我的存在 技术方向:Flume+Kafka+Storm+Redis/Hbase+Hadoop+Hive+Mahout+Spark ... 云计算技术 转载声明:可以转载, 但必须以超链接形式标明文章

Swagger框架学习分享

Swagger框架学习分享 转至元数据结尾 Created and last modified by 刘新宇 大约1分钟以前 转至元数据起始 一.背景介绍 1.1.项目简介 1.2.code repository 1.3.演示项目 二.开发准备 2.1.环境准备 2.2.项目搭建 2.2.1.jar仓库 2.2.2.相关依赖 2.2.3.编写配置文件 2.2.4.与swagger-ui集成 2.6.5.Controller配置 2.2.6.启动中间件 2.2.7.需求定制 三.学习感想 一.背景

效率飞速提高Four Dimension Technologies GeoTools v17.0 1CD+AutoHook.2017.v1.0.3.00 1CD

效率飞速提高Four Dimension Technologies GeoTools v17.0 1CD+AutoHook.2017.v1.0.3.00 1CD GeoTools v12.18 1CD     GeoTools写的是测绘.GIS用户心中最初但现在有这个程序它是有用的,只是任何AutoCAD用户相关的足够的命令.GeoTools现在是几乎所有的AutoCAD用户有用.它解决了很多常见的问题和地图生产的要求和编辑AutoCAD是地理数据的一个非常方便的工具捕获(GIS底图).处理.转

kafka 学习之初体验

学习问题: 1.kafka是否需要zookeeper?2.kafka是什么?3.kafka包含哪些概念?4.如何模拟客户端发送.接受消息初步测试?(kafka安装步骤)5.kafka cluster怎么同zookeeper交互的? 1.kafka是否需要zoopkeeper kafka应用需要zookeeper,可以使用kafka安装包提供的zookeeper,也可以单独下载zookeeper 2.kafka是什么. kafka是一个分布式消息系统.Kafka是一个 分布式的.可分区的.可复制的

自己动手写计算器v1.0

今天突发奇想,想着看了还几个设计模式了,倒不如写点东西来实践它们.发现计算器这种就比较合适,打算随着设计模式的学习,会对计算器不断的做改进. 包括功能的增加和算法的改进.初学者难免犯错,希望大家不吝指教. 计算器V1.0:主要实现了计算器最常见的加减乘除功能,同时还有一个特殊功能,例如:我们执行完1+2后,如果点击等号,会执行加法运算输出结果.但我们如果点击的是运算符(如-),那么不仅会执行加法运算,还会将-号放置到执行结果后,表示这次执行的将会是减法运算. 代码:Operator类负责使用简单