Spark Streaming和Kafka集成深入浅出

写在前面

本文主要介绍Spark Streaming基本概念、kafka集成、Offset管理

本文主要介绍Spark Streaming基本概念、kafka集成、Offset管理

一、概述

Spark  Streaming顾名思义是spark的流式处理框架,是面向海量数据实现高吞吐量、高可用的分布式实时计算。关于spark的安装可以参考Spark入门。Spark Streaming并非像Storm那样是真正的流式计算,两者的处理模型在根本上有很大不同:Storm每次处理一条消息,更多详细信息可参考JStorm基本概念介绍;而spark streaming每次处理的是一个时间窗口的数据流,类似于在一个短暂的时间间隔里处理一批数据。

spark streaming实时接收输入数据流,并根据时间将数据流分成连续的多个batch,然后由Spark引擎一次处理一批数据,以批量生成最终结果流,工作流程图:

二、Spak Streaming

2.1、Batch  Duration

spark streaming的核心参数,设置流数据被分成多个batch的时间间隔,每个spark引擎处理的就是这个时间间隔内的数据。在Spark Streaming中,Job之间有可能存在依赖关系,所以后面的作业必须确保前面的作业执行完后才会被调度执行。如果批处理时间超过了batch duration,意味着数据处理速率跟不上数据接收速率,那么会导致后面正常的batch提交的作业无法按时执行,随着时间的推移,越来越多的作业被延迟执行,最后导致整个Streaming作业被阻塞,所以需要设置一个合理的批处理间隔以确保作业能够在这个批处理间隔内执行完成。

application UI能详细了解到每个batch的提交时间、数据处理时间、延迟执行时间以及处理的数据条目数。

虽然batchDuration的单位可以达到毫秒级别的,但是经验告诉我们,如果这个值过小将会导致因频繁提交作业从而给整个Streaming带来负担,所以请尽量不要将这个值设置为小于500ms。如果job执行的很快,而batchDuration设置的过长,依然会在上次提交作业间隔batchDuration后才提交下一个(数据流分隔机制决定的),这样spark集群会有大空闲期,集群资源没有被充分利用。spark streaming应用程序在首次启动时同样会间隔batchDuration才提交job(执行InputDStream.compute方法计算batch的RDD并提交作业)。

2.2、DStream

表示一系列时间序列上连续的RDDs,每一个RDDs代表一定时间间隔内到达的数据,这样就把连续的数据流拆成很多小的RDDs数据块(RDDs数据块内的数据是连续的数据)。可以通过实时数据创建DStream,也可以对现有的DStream进行transformation操作生成,例如map、window、reduceByKeyAndWindow等转换操作。

在spark streaming运行期间,每个DStream都会定期生成一个RDDs,具体的是compute(time) 方法,生成的RDDs代表一个批次内的数据,作为提交job的输入元数据:

在对DStream进行操作时,会被Spark Streaming引擎转化成对底层 RDD操作。

foreachRDD:是一个转换输出操作符,它返回的不是RDD里的一行数据, 而是输出DStream后面的RDDs,表示一个批次中的一批数据,一个批次,只有一个RDDs。对于DirectKafkaInputDStream流返回的是KafkaRDD,需要注意的是该操作在运行spark streaming应用程序的driver进程里执行。

2.3、InputDStream

InputDStream继承自DStream,是所有输入流的基类,代表从源接收到的原始数据流DStreams,每一个InputDStream关联到单个Receiver对象,从源数据接收数据并存储到spark内存,等待处理。每一个InputDStream接收到的是单个数据流数据。InputDStream在driver节点上从新数据生成RDDs;如果为了实现input stream在work节点上运行recvicer接收外部数据,需要继承ReceiverInputDStream类。InputDStream的start()、stop()方法,分别用于Spark Streaming系统启动和停止接收数据时调用。

三、kafka集成

3.1、DirectKafkaInputDStream

DirectKafkaInputDStream继承InputDStream,创建方法:

Subscribe有三个参数:topic列表、consumer配置项、topic+partition起始offset,其中fromOffsets是可选的。

driver会根据kafkaParams创建KafkaConsumer,用于Spark Streaming确定batch内的kafka数据(offset)范围。

3.2、KafkaRDD

Spark Streaming每隔一个时间间隔会调用InputDStream.compute方法创建KafkaRDD(在driver上执行),表示这个batch里接收到的kafka数据,然后在提交作业时作为stream job的输入。KafkaRDD extends RDD,实现了compute方法,用于计数一个分区里的数据、返回KafkaRDDIterator迭代器,迭代器内部next方法调用consumer.get,从kafka拉取数据.

job运行时调用KafkaRDD.compute方法从kafka读取数据,也就是实际get操作发生在task中。

KafkaRDD是一个包括topic、partition、fromeOffset、untilOffset等的数据结构;ConsumerRecord是kafka client的api。

3.3、offset初始化

Spark Streaming在启动时先调用Subscribe.onStart方法,初始化KafkaConsumer,这个Consumer对象是在driver中用于获取offset。如果fromOffsets不为空,kafkaConsumer就seek到指定的offset,然后再调用positon获取offset.

如果fromOffsets是空,即没有seek,当用consumer.position方法时,返回的offset取决于auto.offset.reset配置:earliest,获取partition最早的offset;latest获取partition最近的offset。

3.4、latestOffset

spark Streaming的内部逻辑,上一个job的untilOffset成为下一个job的fromOffset。latestOffset函数计算untilOffset,核心计算思想是先consumer.seekToEnd,然后position函数就可以取得当前最后offset:

四、offset管理

enable.auto.commit参数必须设置false,因为在自动commit的情况下,可能在一个batch内的数据还没有处理完、或者处理失败,但offset就自动提交了,就会导致数据丢失。下面是在zk中管理offset的思路,zk简单方便而且保证了可用性。

在spark Streaming作业开始时,readOffsets函数用于从zk读取上次应用保存的最后处理的消息偏移量,有以下两种不同处理场景:

1、Spark Streaming应用程序首次运行时,从zk read不到数据,那么就创建一个KafkaConsumer对象,用consumer.position的方式获取offset,这时获取到的offset取决于auto.offset.reset参数的设置

2、如果是重启Spark Streaming应用程序,那可以直接从zk读取到应用上次保存的offset

在完成kafka DStream处理后,调用persistOffsets方法持久化保存分区的偏移量

整体过程伪代码:

五、反压

如果在一个batch内收到的消息比较多,这就需要为executor分配更多内存,可能会导致其他spark streaming应用程序资源分配不足,甚至有OOM的风险。特别是第一次启动应用程序,从earliest offset消费数据时,kafka保留的历史消息越多,数据处理时间也就越长。反压可以限制每个batch接收到的消息量,降低数据倾斜的风险,开启反压:

SparkConf.set("spark.streaming.backpressure.enabled", "true")

设置每个kafka partition读取消息的最大速率:

SparkConf.set("spark.streaming.kafka.maxRatePerPartition", "spark.streaming.kafka.maxRatePerPartition")

这个值要结合spark Streaming处理消息的速率和batchDuration,尽量保证读取的每个partition数据在batchDuration时间内处理完,这个参数需要不断调整,以做到尽可能高的吞吐量.

原文地址:https://www.cnblogs.com/zp-uestc/p/10796807.html

时间: 2024-08-27 04:24:43

Spark Streaming和Kafka集成深入浅出的相关文章

第89课:Spark Streaming on Kafka解析和安装实战

本课分2部分讲解: 第一部分,讲解Kafka的概念.架构和用例场景: 第二部分,讲解Kafka的安装和实战. 由于时间关系,今天的课程只讲到如何用官网的例子验证Kafka的安装是否成功.后续课程会接着讲解如何集成Spark Streaming和Kafka. 一.Kafka的概念.架构和用例场景 http://kafka.apache.org/documentation.html#introdution 1.Kafka的概念 Apache Kafka是分布式发布-订阅消息系统.它最初由Linked

第89讲:Spark Streaming on Kafka解析和安装实战

本课分2部分讲解: 第一部分,讲解Kafka的概念.架构和用例场景: 第二部分,讲解Kafka的安装和实战. 由于时间关系,今天的课程只讲到如何用官网的例子验证Kafka的安装是否成功.后续课程会接着讲解如何集成Spark Streaming和Kafka. 一.Kafka的概念.架构和用例场景 http://kafka.apache.org/documentation.html#introdution 1.Kafka的概念 Apache Kafka是分布式发布-订阅消息系统.它最初由Linked

Spark Streaming使用Kafka保证数据零丢失

来自: https://community.qingcloud.com/topic/344/spark-streaming使用kafka保证数据零丢失 spark streaming从1.2开始提供了数据的零丢失,想享受这个特性,需要满足如下条件: 数据输入需要可靠的sources和可靠的receivers 应用metadata必须通过应用driver checkpoint WAL(write ahead log) 可靠的sources和receivers spark streaming可以通过

Spark Streaming和Kafka整合保证数据零丢失

当我们正确地部署好Spark Streaming,我们就可以使用Spark Streaming提供的零数据丢失机制.为了体验这个关键的特性,你需要满足以下几个先决条件: 1.输入的数据来自可靠的数据源和可靠的接收器: 2.应用程序的metadata被application的driver持久化了(checkpointed ); 3.启用了WAL特性(Write ahead log). 下面我将简单地介绍这些先决条件. 可靠的数据源和可靠的接收器 对于一些输入数据源(比如Kafka),Spark S

Spark学习七:spark streaming与flume集成

Spark学习七:spark streaming与flume集成 标签(空格分隔): Spark 一,启动flume flume-conf.properties文件 agent002.sources = sources002 agent002.channels = channels002 agent002.sinks = sinks002 ## define sources agent002.sources.sources002.type = exec agent002.sources.sour

spark streaming 对接kafka记录

spark streaming 对接kafka 有两种方式: 参考: http://group.jobbole.com/15559/ http://blog.csdn.net/kwu_ganymede/article/details/50314901 Approach 1: Receiver-based Approach 基于receiver的方案: 这种方式使用Receiver来获取数据.Receiver是使用Kafka的高层次Consumer API来实现的.receiver从Kafka中获

Spark Streaming、Kafka结合Spark JDBC External DataSouces处理案例

场景:使用Spark Streaming接收Kafka发送过来的数据与关系型数据库中的表进行相关的查询操作: Kafka发送过来的数据格式为:id.name.cityId,分隔符为tab 1 zhangsan 1 2 lisi 1 3 wangwu 2 4 zhaoliu 3 MySQL的表city结构为:id int, name varchar 1 bj 2 sz 3 sh 本案例的结果为:select s.id, s.name, s.cityId, c.name from student s

Spark Streaming和Kafka整合开发指南(一)

Apache Kafka是一个分布式的消息发布-订阅系统.可以说,任何实时大数据处理工具缺少与Kafka整合都是不完整的.本文将介绍如何使用Spark Streaming从Kafka中接收数据,这里将会介绍两种方法:(1).使用Receivers和Kafka高层次的API:(2).使用Direct API,这是使用低层次的KafkaAPI,并没有使用到Receivers,是Spark 1.3.0中开始引入的.这两种方法有不同的编程模型,性能特点和语义担保.下文将会一一介绍. 基于Receiver

【转】Spark Streaming和Kafka整合开发指南

基于Receivers的方法 这个方法使用了Receivers来接收数据.Receivers的实现使用到Kafka高层次的消费者API.对于所有的Receivers,接收到的数据将会保存在Spark executors中,然后由Spark Streaming启动的Job来处理这些数据. 然而,在默认的配置下,这种方法在失败的情况下会丢失数据,为了保证零数据丢失,你可以在Spark Streaming中使用WAL日志,这是在Spark 1.2.0才引入的功能,这使得我们可以将接收到的数据保存到WA