spark VS mapreduce

Apache Spark,一个内存数据处理的框架,现在是一个顶级Apache项目。 这是Spark迈向稳定的重要一步,因为它越来越多地在下一代大数据应用中取代MapReduce。

MapReduce是有趣并且非常有用的,但现在看来Spark开始从它手中接过缰绳,成为新的Hadoop工作负载的主要处理框架。该技术在上周四迈出了十分具有意义的一步:Apache软件基金会宣布Spark现在是一个顶级项目 。

因 为它比MapReduce的速度更快、更容易编程,Spark已经囊括大量的用户和代码贡献者。 这意味着它非常适合用于下一代大数据的应用程序,它们可能需要更低的延迟查询,实时处理或在相同的数据上的迭代计算(即,机器学习)。 Spark的创立者来自加州大学伯克利分校 ,并且已经创建了一家名为Databricks的公司进行商业化运作。

Spark 从技术上讲是一个独立的项目,但它总是设计用来与Hadoop分布式文件系统一起工作 。 它可以直接在HDFS上运行, 以及通过YARN,它可以和同一群集上的MapReduce作业一起运行。 事实上,Hadoop的先驱Cloudera公司现在为Spark客户提供企业级支持。

时间: 2024-10-29 10:46:37

spark VS mapreduce的相关文章

Spark 颠覆 MapReduce 保持的排序记录

在过去几年,Apache Spark的采用以惊人的速度增加着,通常被作为MapReduce后继,可以支撑数千节点规模的集群部署.在内存中数 据处理上,Apache Spark比MapReduce更加高效已经得到广泛认识:但是当数据量远超内存容量时,我们也听到了一些机构在Spark使用 上的困扰.因此,我们与Spark社区一起,投入了大量的精力做Spark稳定性.扩展性.性能等方面的提升.既然Spark在GB或TB级别数据上运行 良好,那么它在PB级数据上也应当同样如此. 为了评估这些工作,最近我

Alluxio增强Spark和MapReduce存储能力

Alluxio的前身为Tachyon.Alluxio是一个基于内存的分布式文件系统:Alluxio以内存为中心设计,他处在诸如Amazon S3. Apache HDFS 或 OpenStack Swift存储系统和计算框架应用Apache Spark 或Hadoop MapReduce中间,它是架构在底层分布式文件系统和上层分布式计算框架之间的一个中间件. 对上层应用来讲,Alluxio是一个管理数据访问和快速存储的中间层,对底层存储而言,Alluxio消除了大数据业务和存储系统依赖和鸿沟,

Spark 与 MapReduce的区别

学习参考自 http://spark-internals.books.yourtion.com/markdown/4-shuffleDetails.html 1.  Shuffle read 边 fetch 边处理还是一次性 fetch 完再处理? 边 fetch 边处理. MapReduce shuffle 阶段就是边 fetch 边使用 combine() 进行处理,只是 combine() 处理的是部分数据.MapReduce 为了让进入 reduce() 的 records 有序,必须等

不同的瑞士军刀:对比 Spark 和 MapReduce

本文由 伯乐在线 - 古月水语 翻译,顾星竹 校稿.未经许可,禁止转载! 来源:http://blog.jobbole.com/97150/ Apache 基金会下的 Spark 再次引爆了大数据的话题.带着比 Hadoop MapReduce 速度要快 100 倍的承诺以及更加灵活方便的 API,一些人认为这或许预示着 Hadoop MapReduce 的终结. 作为一个开源的数据处理框架,Spark 是如何做到如此迅速地处理数据的呢?秘密就在于它是运行在集群的内存上的,而且不受限于 MapR

spark与mapreduce的区别

spark是通过借鉴Hadoop mapreduce发展而来,继承了其分布式并行计算的优点,并改进了mapreduce明显的缺陷,具体表现在以下几方面: 1.spark把中间计算结果存放在内存中,减少迭代过程中的数据落地,能够实现数据高效共享,迭代运算效率高.mapreduce中的计算中间结果是保存在磁盘上的,这样必然影响整体运行速度.   2.spark容错性高.spark支持DAG图的分布式并行计算(简单介绍以下spark DAG:即有向无环图,描述了任务间的先后依赖关系,spark中rdd

MapReduce程序转换为Spark程序

MapReduce和Spark比较 目前的大数据处理可以分为以下三个类型: 1.复杂的批量数据处理(batch data processing),通常的时间跨度在数十分钟到数小时之间: 2.基于历史数据的交互式查询(interactive query),通常的时间跨度在数十秒到数分钟之间: 3.基于实时数据流的数据处理(streaming data processing),通常的时间跨度在数百毫秒到数秒之间. 大数据处理势必需要依赖集群环境,而集群环境有三大挑战,分别是并行化.单点失败处理.资源

MapReduce和spark的shuffle过程详解

面试常见问题,必备答案. 参考:https://blog.csdn.net/u010697988/article/details/70173104 mapReducehe和Spark之间的最大区别是前者较偏向于离线处理,而后者重视实效性,下面主要介绍mapReducehe和Spark两者的shuffle过程. MapReduce的Shuffle过程 MapReduce计算模型一般包括两个重要的阶段:Map是映射,负责数据的过滤分发:Reduce是规约,负责数据的计算归并.Reduce的数据来源于

从Hadoop MapReduce到Spark

回顾MapReduce的计算过程 Spark对比MapReduce Spark是借鉴了MapReduce的思想并在其基础上发展起来的,继承了其分布式计算的优点并改进其缺陷,但两者也有不少的差异如下: 1.spark更快,spark把运行的之间数据存放在内存,迭代计算效率高:mapreduce的之间结果需要落地,保存到磁盘,会产生大量IO操作,影响性能. 2.spark容错性高,通过弹性分布式数据集RDD来实现高效容错,某一部分丢失或出错,可通过计算流程的血缘关系来重建:而mapreduce只能重

hadoop的mapReduce和Spark的shuffle过程的详解与对比及优化

https://blog.csdn.net/u010697988/article/details/70173104 大数据的分布式计算框架目前使用的最多的就是hadoop的mapReduce和Spark,mapReducehe和Spark之间的最大区别是前者较偏向于离线处理,而后者重视实现性,下面主要介绍mapReducehe和Spark两者的shuffle过程. MapReduce的Shuffle过程介绍 Shuffle的本义是洗牌.混洗,把一组有一定规则的数据尽量转换成一组无规则的数据,越随