大数据实时处理-基于Spark的大数据实时处理及应用技术培训

随着互联网、移动互联网和物联网的发展,我们已经切实地迎来了一个大数据

的时代。大数据是指无法在一定时间内用常规软件工具对其内容进行抓取、管理和处理的数据集合,对大数据的分析已经成为一个非常重要且紧迫的需求。目前对大数据的分析工具,首选的是Hadoop/Yarn平台,但目前对大数据的实时分析工具,业界公认最佳为Spark。Spark是基于内存计算的大数据并行计算框架,Spark目前是Apache软件基金会旗下,顶级的开源项目,Spark提出的DAG作为MapReduce的替代方案,兼容HDFS、Hive等分布式存储层,可融入Hadoop的生态系统,以弥补缺失MapReduce的不足,事实上已成为当前互联网企业主流的大数据实时处理工具。为解决广大系统设计人员深入研究与开发大数据实时处理的需要,特举办“大数据实时处理-基于Spark的大数据实时处理及应用技术”培训班。

培训要点

互联网点击数据、传感数据、日志文件、具有丰富地理空间信息的移动数据和涉及网络的各类评论,成为了海量信息的多种形式。当数据以成百上千TB不断增长的时候,我们在内部交易系统的历史信息之外,需要一种基于大数据实时分析的决策模型和技术支持。

大数据通常具有:数据体量(Volume)巨大,数据类型(Variety)繁多,价值(Value)密度低,处理速度(Velocity)快等四大特征。Google发布的GFS和MapReduce等高可扩展、高性能的分布式大数据处理框架,证明了在处理海量网页数据时该框架的优越性。在此基础上,Apache Hadoop开源项目开发团队,克隆并推出了Hadoop/Yarn系统。该系统已受到学术界和工业界的广泛认可和采纳,并孵化出众多子项目(如Hive,Zookeeper和Mahout等),日益形成一个易部署、易开发、功能齐全、性能优良的系统。

近年来以Berkley牵头设计的Spark/BDAS技术,实现了内存级别的分布式处理模式,使用户无需关注复杂的内部工作机制,无需具备丰富的分布式系统知识及开发经验,即可实现大规模分布式系统的部署与大数据的并行处理。

Spark生态系统(BDAS项目)已经发展成一个,包含多个子项目的集合,包括Spark SQL、Spark Streaming、GraphX、MLlib等,本课程从大数据实时处理技术以及Spark实战的角度,结合理论和实践,全方位地介绍Spark大数据实时处理工具的原理和内核,包括Spark大数据计算框架、运行架构、设计模型和数据管理策略,及Spark在业界的应用。

课程中结合实例,介绍图工具GraphX如何发现社交网络中的人际关系,大数据挖掘工具MLlib如何进行商品聚类和电影推荐,以及Streaming流挖掘工具,并探讨了Spark与Docker等云环境下新技术的结合,分析了其应用前景。

本课程教学过程中还提供了案例分析来帮助学员了解如何用Spark实时大数据工具来解决业界的问题,并介绍了Spark生产环境搭建的相关知识。

本课程不是一个泛泛的理论性、概念性的介绍课程,而是针对问题讨论Spark解决方案的深入课程。教师对于上述领域有深入的理论研究与实践经验,在课程中将会针对这些问题与学员一起进行研究,在关键点上还会搭建实验环境进行实践研究,以加深对于这些解决方案的理解。通过本课程学习,希望推动Spark实时大数据处理开发上升到一个新水平。

培训目标

1, 全面了解大数据实时处理技术的相关知识。

2,学习Spark的核心技术方法以及应用特征。

3,深入使用Spark在大数据实时处理中的使用。

4,掌握BDAS相关工具及其主要功能。

课程大纲

第一讲、Spark大数据实时处理技术

1)大数据处理技术

2)Spark实时处理技术

3)Spark生态系统BDAS

4)Spark架构分析

第二讲、 Spark安装配置及监控

1)Ubuntu环境的准备

2)Hadoop2.X和Scala

3)搭建Spark开发环境

4)Idea编译和运行

5)Spark监控管理

第三讲、 Scala编程语言使用概述

1) Scala编程语言

2) 基本数据类型

3) 操作基本数据类型

4) 类和对象

5) 组合和继承

第四讲、 Spark分布式计算框架

1)Spark计算模型

2)弹性分布式数据集RDD

3)Spark的数据存储

4)Transformation算子分类及功能

5)Actions算子分类及功能

第五讲、 Spark内部工作机制详解

1)Spark底层实现原理

2)Spark应用执行机制

3)Spark调度与任务分配模块

4)FIFO和FAIR调度算法

第六讲、 Spark数据读取与存储

1)Spark的I/O机制

2)Spark中的数据压缩

3)Spark的数据读取与存储

4)Spark数据读写流程

第七讲、 Spark通信模块和容错机制

1)Spark通信模块

2)通信框架AKKA

3)容错机制和Lineage依赖

4)检查点机制进行容错

5)Shuffle过程

第八讲、SQL On Spark

1) BDAS数据分析软件栈

2) SQL On Spark

3) Spark SQL工具使用

4) Shark工具使用

5) Hive on Spark工具

6) Spark操作HBase中的数据

第九讲、 Spark流数据处理工具Streaming

1)流数据处理工具Streaming

2) Spark Streaming架构

3) Spark Streaming原理

4) Spark Streaming实例

第十讲、Spark中的大数据挖掘工具MLlib

1)大数据挖掘工具MLlib

2)MLlib的数据存储

3)MLlib中的聚类和分类

4)MLlib算法应用实例

5)利用MLlib进行推荐

第十一讲、 Spark大规模图处理工具GraphX

1)大规模图处理工具GraphX

2)GraphX的运行架构

3)GraphX操作使用

4)GraphX使用实例

第十二讲、 Spark与其他大数据技术的融合与应用

1)与Hadoop/Yarn集群应用的协作

2)与Docker等其它云工具配合

3)Spark在Yahoo!的应用

4)Spark在电商中的应用

课程主讲

由业界知名云计算专家亲自授课:

杨老师   主要研究网络信息分析以及云计算相关技术,长期从事数据仓库、数据挖掘以及大数据分析技术研究,主持和参与了多个国家和省部级基金项目,具有丰富的工程实践及软件研发经验。

课程对象

1,系统架构师、系统分析师、高级程序员、资深开发人员。

2,牵涉到大数据处理的数据中心运行、规划、设计负责人。

3,政府机关,金融保险、移动和互联网等大数据来源单位的负责人。

4,高校、科研院所牵涉到大数据与分布式数据处理的项目负责人。

学员基础

1,对IT系统设计有一定的理论与实践经验。

2,数据仓库与数据挖掘处理有一定的基础知识。

备  注

课程费用:5500元/人(含教材、午餐、学习用具等)。

收藏本课程会员也收藏了大数据分析应用培训专题

时间: 2024-08-04 18:21:28

大数据实时处理-基于Spark的大数据实时处理及应用技术培训的相关文章

基于Spark的机器学习实践 (九) - 聚类算法

0 相关源码 1 k-平均算法(k-means clustering)概述 1.1 回顾无监督学习 ◆ 分类.回归都属于监督学习 ◆ 无监督学习是不需要用户去指定标签的 ◆ 而我们看到的分类.回归算法都需要用户输入的训练数据集中给定一个个明确的y值 1.2 k-平均算法与无监督学习 ◆ k-平均算法是无监督学习的一种 ◆ 它不需要人为指定一个因变量,即标签y ,而是由程序自己发现,给出类别y ◆ 除此之外,无监督算法还有PCA,GMM等 源于信号处理中的一种向量量化方法,现在则更多地作为一种聚类

走在大数据的边缘 基于Spark的机器学习-智能客户系统项目实战(项目实战)

38套大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程 视频课程包含: 38套大数据和人工智能精品高级课包含:大数据,云计算,架构,数据挖掘实战,实时推荐系统实战,电视收视率项目实战,实时流统计项目实战,离线电商分析项目实战,Spark大型项目实战用户分析,智能客户系统项目实战,Linux基础,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hiv

成都大数据Hadoop与Spark技术培训班

成都大数据Hadoop与Spark技术培训班 中国信息化培训中心特推出了大数据技术架构及应用实战课程培训班,通过专业的大数据Hadoop与Spark技术架构体系与业界真实案例来全面提升大数据工程师.开发设计人员的工作水平,旨在培养专业的大数据Hadoop与Spark技术架构专家,更好地服务于各个行业的大数据项目开发和落地实施. 2015年近期公开课安排:(全国巡回开班) 08月21日——08月23日大连 09月23日——09月25日北京 10月16日——10月18日成都 11月27日——11月2

大数据计算平台Spark内核全面解读

1.Spark介绍 Spark是起源于美国加州大学伯克利分校AMPLab的大数据计算平台,在2010年开源,目前是Apache软件基金会的顶级项目.随着Spark在大数据计算领域的暂露头角,越来越多的企业开始关注和使用.2014年11月,Spark在Daytona Gray Sort 100TB Benchmark竞赛中打破了由Hadoop MapReduce保持的排序记录.Spark利用1/10的节点数,把100TB数据的排序时间从72分钟提高到了23分钟. Spark在架构上包括内核部分和4

网易大数据平台的Spark技术实践

网易大数据平台的Spark技术实践 作者 王健宗 网易的实时计算需求 对于大多数的大数据而言,实时性是其所应具备的重要属性,信息的到达和获取应满足实时性的要求,而信息的价值需在其到达那刻展现才能利益最大化,例如电商网站,网站推荐系统期望能实时根据顾客的点击行为分析其购买意愿,做到精准营销. 实时计算指针对只读(Read Only)数据进行即时数据的获取和计算,也可以成为在线计算,在线计算的实时级别分为三类:Real-Time(msec/sec级).Near Real-Time(min/hours

Spark:大数据的电花火石!

什么是Spark?可能你很多年前就使用过Spark,反正当年我四六级单词都是用的星火系列,没错,星火系列的洋名就是Spark. 当然这里说的Spark指的是Apache Spark,Apache Spark?is a fast and general engine for large-scale data processing: 一种快速通用可扩展的数据分析引擎.如果想要搞清楚Spark是什么,那么我们需要知道它解决了什么问题,还有是怎么解决这些问题的. Spark解决了什么问题? 在这里不得不

Spark进阶 大数据离线与实时项目实战 完整版

第1章 课程介绍&学习指南本章会对这门课程进行说明并进行学习方法介绍. 第2章 Redis入门Redis是目前最火爆的内存数据库之一,通过在内存中读写数据,大大提高了读写速度.本章将从Redis特性.应用场景出发,到Redis的基础命令,再到Redis的常用数据类型实操,最后通过Java API来操作Redis,为后续实时处理项目打下坚实的基础... 第3章 HBase入门HBase是一个分布式的.面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:

Spark成为大数据高手进阶步骤

什么是Spark Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用的并行计算框架,Spark基于map reduce算法实现的分布式计算,拥有Hadoop MapReduce所具有的优点:但不同于MapReduce的是Job中间输出和结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的map reduce的算法.其架构如下图所示: Spark的适用场景 Spark是基于内存的迭代计算框架,适用

[转载] Spark:大数据的“电光石火”

转载自http://www.csdn.net/article/2013-07-08/2816149 Spark已正式申请加入Apache孵化器,从灵机一闪的实验室“电火花”成长为大数据技术平台中异军突起的新锐.本文主要讲述Spark的设计思想.Spark如其名,展现了大数据不常见的“电光石火”.具体特点概括为“轻.快.灵和巧”. 轻:Spark 0.6核心代码有2万行,Hadoop 1.0为9万行,2.0为22万行.一方面,感谢Scala语言的简洁和丰富表达力:另一方面,Spark很好地利用了H