王家林谈Spark性能优化第十季之全球独家揭秘Spark统一内存管理!

内容:

1、传统的Spark内存管理的问题;

2、Spark统一内存管理;

3、 展望;

==========传统的Spark内存管理的问题============

Spark内存分为三部分:

Execution:Shuffles、Joins、Sort、Aggregations等等,默认情况下占用,spark.shuffle.memoryfraction默认是0.2;

Storage:Persist(Canche)、Large Task Result、Torrent类型的Broadcast等,默认占用,spark.storage.memoryfraction默认是0.6;

Other:Program Object、Metadata、code,默认0.2

有内存使用安全系统(safetyfraction):0.8,也就是Execution和Storage等只能使用配置内存的80%,就是上面只能是0.16、0.48、0.16

如果单台机器不强,则在Execution中的数据会一直spill到磁盘中,则shuffle的性能就会很慢,单台机器越强,结果就越强,所以建集群的时候,追求单台机器(内存)的极致,而非单纯的拼机器的数量。

如果没有多少large task result,则可以适当提高Execution。

同理,如果storage如果不做cache,则是非常大的内存浪费。

传统的内存分配的模型,对spark人才的需求很高。

很好的证明:

从Execution角度说说怎么样去分配内存的,分配内存有个ShuffleMemoryManager、TaskMemoryManager、ExecutorMemoryManager。

一个具体的Task过来,可能会占满Executor的内存,

==========Spark统一内存管理============

UnifiedMemoryManager,Spark1.6保证至少有300M的空间可以用

/**
 * A [[MemoryManager]] that enforces a soft boundary between execution and storage such that
 * either side can borrow memory from the other.
 *
 * The region shared between execution and storage is a fraction of (the total heap space - 300MB)
 * configurable through `spark.memory.fraction` (default 0.75). The position of the boundary
 * within this space is further determined by `spark.memory.storageFraction` (default 0.5).
 * This means the size of the storage region is 0.75 * 0.5 = 0.375 of the heap space by default.
 *
 * Storage can borrow as much execution memory as is free until execution reclaims its space.
 * When this happens, cached blocks will be evicted from memory until sufficient borrowed
 * memory is released to satisfy the execution memory request.
 *
 * Similarly, execution can borrow as much storage memory as is free. However, execution
 * memory is *never* evicted by storage due to the complexities involved in implementing this.
 * The implication is that attempts to cache blocks may fail if execution has already eaten
 * up most of the storage space, in which case the new blocks will be evicted immediately
 * according to their respective storage levels.
 *
 * @param storageRegionSize Size of the storage region, in bytes.
 *                          This region is not statically reserved; execution can borrow from
 *                          it if necessary. Cached blocks can be evicted only if actual
 *                          storage memory usage exceeds this region.
 */

object UnifiedMemoryManager {

// Set aside a fixed amount of memory for non-storage, non-execution purposes.
  // This serves a function similar to `spark.memory.fraction`, but guarantees that we reserve
  // sufficient memory for the system even for small heaps. E.g. if we have a 1GB JVM, then
  // the memory used for execution and storage will be (1024 - 300) * 0.75 = 543MB by default.
  private val RESERVED_SYSTEM_MEMORY_BYTES = 300 * 1024 * 1024

统一内存管理,当executor内存不够的时候,会向storage借,有多少借多少

当strorage内存不够,也不会让executor释放出来

王家林老师名片:

中国Spark第一人

新浪微博:http://weibo.com/ilovepains

微信公众号:DT_Spark

博客:http://blog.sina.com.cn/ilovepains

手机:18610086859

QQ:1740415547

邮箱:[email protected]

时间: 2024-10-16 08:38:18

王家林谈Spark性能优化第十季之全球独家揭秘Spark统一内存管理!的相关文章

王家林谈Spark性能优化第六季

内容: 1.关于Shuffle的再次说明: 2.Shuffle性能优化: 核心能力就是能轻松的驾驭Shuffle,有Hash.Sort.钨丝计划,应对不同场景,Spark1.6.0是默认的SortBasedShuffle 从比较通用的方面来谈Shuffle,之前已经从Hash和Sort两个角度谈Shuffle ==========Shuffle性能调优============ 1.问题: Shuffle output file lost?真正的原因是GC导致的!!!如果 GC尤其是Full GC

王家林谈Spark性能优化第八季之Spark Tungsten-sort Based Shuffle 内幕解密

内容: 1."钨丝计划"Shuffle实例: 2."钨丝计划"下的Shuffle解密: 现在SparkSQL就是用的"钨丝计划"来处理Shuffle的 ==========使用Tubsten功能============ 1.如果想要你的程序使用Tungsten功能,可以设置 spark.shuffle.manager=tungsten-sort 2.DataFrame中自动开启了Tungsten功能: ==========Tungsten-bas

王家林谈Spark性能优化第一季!(DT大数据梦工厂)

内容: 1.Spark性能优化需要思考的基本问题: 2.CPU和Memory: 3.并行度和Task: 4.网络: ==========王家林每日大数据语录============ 王家林每日大数据语录Spark篇0080(2016.1.26于深圳):如果Spark中CPU的使用率不够高,可以考虑为当前的程序分配更多的Executor,或者增加更多的Worker实例来充分的使用多核的潜能. 王家林每日大数据语录Spark篇0079(2016.1.26于深圳):适当设置Partition分片数是非

Spark性能优化指南——高级篇

Spark性能优化指南--高级篇 [TOC] 前言 继基础篇讲解了每个Spark开发人员都必须熟知的开发调优与资源调优之后,本文作为<Spark性能优化指南>的高级篇,将深入分析数据倾斜调优与shuffle调优,以解决更加棘手的性能问题. 数据倾斜调优 调优概述 有的时候,我们可能会遇到大数据计算中一个最棘手的问题--数据倾斜,此时Spark作业的性能会比期望差很多.数据倾斜调优,就是使用各种技术方案解决不同类型的数据倾斜问题,以保证Spark作业的性能. 数据倾斜发生时的现象 绝大多数tas

Spark性能优化指南——基础篇

前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的功能涵盖了大数据领域的离线批处理.SQL类处理.流式/实时计算.机器学习.图计算等各种不同类型的计算操作,应用范围与前景非常广泛.在美团•大众点评,已经有很多同学在各种项目中尝试使用Spark.大多数同学(包括笔者在内),最初开始尝试使用Spark的原因很简单,主要就是为了让大数据计算作业的执行速度更快.性能更高. 然而,通过Spark开发出高性能的大数据计算作业,并不是那么简单的.如果没有对Spar

美团Spark性能优化指南——基础篇

http://tech.meituan.com/spark-tuning-basic.html 前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的功能涵盖了大数据领域的离线批处理.SQL类处理.流式/实时计算.机器学习.图计算等各种不同类型的计算操作,应用范围与前景非常广泛.在美团?大众点评,已经有很多同学在各种项目中尝试使用Spark.大多数同学(包括笔者在内),最初开始尝试使用Spark的原因很简单,主要就是为了让大数据计算作业的执行速度更快.性

【转载】 Spark性能优化指南——基础篇

前言 开发调优 调优概述 原则一:避免创建重复的RDD 原则二:尽可能复用同一个RDD 原则三:对多次使用的RDD进行持久化 原则四:尽量避免使用shuffle类算子 原则五:使用map-side预聚合的shuffle操作 原则六:使用高性能的算子 原则七:广播大变量 原则八:使用Kryo优化序列化性能 原则九:优化数据结构 资源调优 调优概述 Spark作业基本运行原理 资源参数调优 写在最后的话 前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的

Spark性能优化指南——基础篇转

前言 在大数据计算领域,Spark已经成为了越来越流行.越来越受欢迎的计算平台之一.Spark的功能涵盖了大数据领域的离线批处理.SQL类处理.流式/实时计算.机器学习.图计算等各种不同类型的计算操作,应用范围与前景非常广泛.在美团•大众点评,已经有很多同学在各种项目中尝试使用Spark.大多数同学(包括笔者在内),最初开始尝试使用Spark的原因很简单,主要就是为了让大数据计算作业的执行速度更快.性能更高. 然而,通过Spark开发出高性能的大数据计算作业,并不是那么简单的.如果没有对Spar

【转载】Spark性能优化指南——高级篇

前言 数据倾斜调优 调优概述 数据倾斜发生时的现象 数据倾斜发生的原理 如何定位导致数据倾斜的代码 查看导致数据倾斜的key的数据分布情况 数据倾斜的解决方案 解决方案一:使用Hive ETL预处理数据 解决方案二:过滤少数导致倾斜的key 解决方案三:提高shuffle操作的并行度 解决方案四:两阶段聚合(局部聚合+全局聚合) 解决方案五:将reduce join转为map join 解决方案六:采样倾斜key并分拆join操作 解决方案七:使用随机前缀和扩容RDD进行join 解决方案八:多