Spark里几个重要的概念及术语

学习Spark,有几个重要的术语需要弄清楚。

1. Application

用户在spark上构建的程序,包含了driver程序以及集群上的executors.

2. Driver Program

运行main函数并且创建SparkContext的程序。

客户端的应用程序,Driver Program类似于hadoop的wordcount程序的main函数。

3.Cluster Manager

集群的资源管理器,在集群上获取资源的外部服务。

Such as Standalone、Mesos、Yarn。

拿Yarn举例,客户端程序会向Yarn申请计算我这个任务需要多少的内存,多少CPU,etc。

然后Cluster Manager会通过调度告诉客户端可以使用,然后客户端就可以把程序送到每个Worker Node上面去执行了。

4.Worker Node

集群中任何一个可以运行spark应用代码的节点。

Worker Node就是物理节点,可以在上面启动Executor进程。

5.Executor

在每个WorkerNode上为某应用启动的一个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上,每个任务都有各自独立的Executor。

Executor是一个执行Task的容器。它的主要职责是:

1、初始化程序要执行的上下文SparkEnv,解决应用程序需要运行时的jar包的依赖,加载类。

2、同时还有一个ExecutorBackend向cluster manager汇报当前的任务状态,这一方面有点类似hadoop的tasktracker和task。

总结:Executor是一个应用程序运行的监控和执行容器。

6.Job

包含很多task的并行计算,可以认为是Spark RDD 里面的action,每个action的计算会生成一个job。

用户提交的Job会提交给DAGScheduler,Job会被分解成Stage和Task。

7.Stage

一个Job会被拆分为多组Task,每组任务被称为一个Stage就像Map Stage, Reduce Stage。

Stage的划分在RDD的论文中有详细的介绍,简单的说是以shuffle和result这两种类型来划分。在Spark中有两类task,一类是shuffleMapTask,一类是resultTask,第一类task的输出是shuffle所需数据,第二类task的输出是result,stage的划分也以此为依据,shuffle之前的所有变换是一个stage,shuffle之后的操作是另一个stage。比如 rdd.parallize(1 to 10).foreach(println) 这个操作没有shuffle,直接就输出了,那么只有它的task是resultTask,stage也只有一个;如果是rdd.map(x => (x, 1)).reduceByKey(_ + _).foreach(println), 这个job因为有reduce,所以有一个shuffle过程,那么reduceByKey之前的是一个stage,执行shuffleMapTask,输出shuffle所需的数据,reduceByKey到最后是一个stage,直接就输出结果了。如果job中有多次shuffle,那么每个shuffle之前都是一个stage。

8.Task

被送到executor上的工作单元。

Spark上分为2类task。

1.shuffleMapTask

* A ShuffleMapTask divides the elements of an RDD into multiple buckets (based on a partitioner
 * specified in the ShuffleDependency).

2.resultTask

* A task that sends back the output to the driver application.

9. Partition

Partition类似hadoop的Split,计算是以partition为单位进行的,当然partition的划分依据有很多,这是可以自己定义的,像HDFS文件,划分的方式就和MapReduce一样,以文件的block来划分不同的partition。总而言之,Spark的partition在概念上与hadoop中的split是相似的,提供了一种划分数据的方式。

附录:

RDD的一大卖点就是有依赖关系存储在每一个RDD里面,当某一个RDD计算的时候发现parent RDD的数据丢失了,那它就会从parent的parent RDD重新计算一遍以恢复出parent数据,如果一直没找到,那么就会找到根RDD,有可能是HadoopRDD,那么就会从HDFS上读出数据一步步恢复出来。当然如果完全找不到数据,那么就恢复不出来了。在论文中称之为RDD的lineage信息。

另外RDD这个对象是存储在client中的,而RDD的数据才是存储在worker上的,只要RDD对象不被GC掉数据是可以通过lineage信息恢复的。【部分引用http://jerryshao.me/】

时间: 2024-10-13 01:46:44

Spark里几个重要的概念及术语的相关文章

谈hadoop/spark里为什么都有,YARN呢?

在Hadoop集群里,有三种模式: 1.本地模式 2.伪分布模式 3.全分布模式 在Spark集群里,有四种模式: 1.local单机模式 结果xshell可见: ./bin/spark-submit --class org.apache.spark.examples.SparkPi --master local[1] ./lib/spark-examples-1.3.1-hadoop2.4.0.jar 100 这里写local,就是local[1] 2.standalone集群模式 需要的配置

Kubernetes 入门之Kubernetes 的基本概念和术语

Kubernetes是什么? 他是一个全新的基于容器技术分布式架构领先方案: 他也是一个开放的开发平台: 他也是一个完备的分布式系统支撑平台: Kubernetes的基本慨念和术语 Master Kubernetes 里的Master 指的是集群控制节点,每个Kubernetes 集群里需要有一个 Master 节点负责整个集群的管理和控制,基本上Kuberneter所有的控制命令都发给它,他来负责具体的执行过程,我们后面所执行的所有命令基本上都是在Master节点上运行的.Masteer通常会

Kubernetes 基本概念和术语

Kubernetes 基本概念和术语 Kubernetes 中大部分概念如 Node.Pod.Replication Controller. Service 等都可以看做一种 "资源对象",几乎所有的资源对象都可以通过 Kubernetes提供的 kubectl 工具(或者API远程调用)执行增.删.查.改等操作并将其保存在etcd中持久化存储.从这个角度来看,Kubernetes其实是一个高度自动化的资源控制系统,它通过追踪对比etcd库里保存的"资源期望状态"与

k8s上的基础概念和术语

kubernetes基本概念和术语 kubeernetes中的大部分概念如Node,Pod,Replication Controller ,Serverce等都可以看作一种“资源对象”,几乎所有的资源对象都可以通过kubernetes提供的kubectl工具(或者API编程调用)执行增删改查等操作并将其保存在etcd中持久化存储.从这个角度来看,kubernetes其实是一个高度自动化的资源控制系统,它通过跟踪对比etcd库里保存的“资源期望状态”与当前环境中的“实际资源状态”的差异来实现自动控

深入解析Windows操作系统笔记——CH1概念和术语

1.概念和工具 本章主要介绍Windows操作系统的关键概念和术语 1.概念和工具... 1 1.1操作系统版本... 1 1.2基础概念和术语... 2 1.2.1Windows API2 1.2.2 服务.函数和例程... 3 1.2.3 进程.线程和作业... 4 1.2.3.1 进程... 4 1.2.3.2 线程... 4 1.2.3.3 虚拟地址描述符... 4 1.2.3.4 作业... 4 1.2.4 虚拟内存... 5 1.2.5 内核模式和用户模式... 5 1.2.6 终端

数据结构基本概念及术语理解(C语言版-严蔚敏教材)

-------------------------------------------- 基本概念和术语 - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 数据:是对客观事物的符号表示,在计算机科学中是指所有能输入到计算机中并被计算机程序处理的符号的总称

数据结构基本概念和术语

基本概念和术语 2016年11月22日 9:24 数据是对客观事务的符号表示,在计算机科学中是指所有能输入到计算机中并被计算机程序处理的符号的总称. 数据元素(data element)是数据的基本单位,在计算机程序中通常作为一个整体进行考虑和处理.一个数据元素可以由若干数据项组成,数据项是数据的不可分割的最小单位.(Example:一本书的书目信息为一个数据元素,而书目信息中的每一项(如书名作者)为一个数据项) 数据对象(data object)是性质相同的数据元素的集合,是数据的一个子集.

数据结构基本概念和术语总结

在这里整理一下数据结构一些基本概念和术语,是为了自己以后方便查阅,同时也可以帮助到查阅的人方便查找,因为有些概念性很强的东西的确不是很好记. 什么是数据结构:数据结构就是按照一定的逻辑组成的一批数据,使用某种存储结构将这批数据存储于计算机中,并在这些数据上定义了一个运算集合. 数据结构涉及哪几个方面:三个方面.一.数据的逻辑结构:数据成员以及它们相互之间的逻辑关系,也称为数据的逻辑结构,简称数据结构.二.数据的存储结构:数据成员及其关系在计算机存储器内的存储表示,也称为数据的物理结构,简称存储结

第一课:数据结构的基本概念和术语

数据结构   本课主题:数据结构的基本概念和术语 教学目的:了解数据结构的基本概念,理解常用术语 教学重点:基本概念:数据与数据元素 教学难点:数据元素间的四种结构关系. 授课内容: 一.数据.数据元素.数据对象.数据结构的定义 1.数据的定义 定义一:数据是客观事物的符号表示. 学号 姓名 语文 数学 C语言 6201001 张三 85 54 92 6201002 李四 92 84 64 6201003 王五 87 74 73 6201004 ... 例:张三的C语言考试成绩为92分,92就是