Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
至于如何学习,当然就是看书学习了,纸质书或者电子书都可以。如果有钱,也可以选择去培训机构学习。
然后呢,学习这块切记不能闭门造车,要多交流多沟通,多上相关的社区论坛看看,多跟大神们请教请教。
还有就是要多动手,自己完完整整地做一个项目胜过看10本书。
我会陆陆续续给大家讲解这方面的知识,敬请期待!
时间: 2024-11-05 19:41:52