hadoop的源起与体系介绍

1.Hadoop的源起——Lucene项目

Hadoop 是由Doug Cutting用java语言书写的开源软件,其实现与Google类似的全文搜索功能,它提供了两种全文检索引擎的架构,包括完整的查询引擎和索引引擎。

Hadoop早期版本发布在个人网站和SourceForge,2001年年底成为apache软件基金会jakarta的一个子项目。

Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。

对于大数量的场景,Lucene面对与Google同样的困难,这些迫使Doug Cutting学习和模仿Google解决这些问题的办法

Doug Cutting首先开发了一个微缩版项目:Nutch

2.从lucene到nutch,从nutch到hadoop

2003-2004年,Google公开了部分GFS和Mapreduce思想的细节,以此为基础Doug Cutting等人用了2年业余时间实现了DFS和Mapreduce机制,使Nutch性能飙升。

Yahoo招安Doug Cutting及其项目。

Hadoop 于 2005 年秋天作为 Lucene的子项目 Nutch的一部分正式引入Apache基金会。2006 年 3 月份,Map-Reduce 和 Nutch Distributed File System (NDFS) 分别被纳入称为 Hadoop 的项目中,项目名字来源于Doug Cutting儿子的玩具大象。

Hadoop核心部分:MapReduce(分布式计算程序)和HDFS(分布式文件管理系统)

3.Hadoop的架构

Hadoop主要构成:Namenode、Secondary Namenode、DataNode、JobTracker、TaskTracker

(1)Namenode

HDFS的守护程序

纪录文件是如何分割成数据块的,以及这些数据块被存储到哪些节点上

对内存和I/O进行集中管理

是个单点,发生故障将使集群崩溃

(2)Secondary Namenode

监控HDFS状态的辅助后台程序

每个集群都有一个

与NameNode进行通讯,定期保存HDFS元数据快照

当NameNode故障可以作为备用NameNode使用

(3)DataNode

每台从服务器都运行一个

负责把HDFS数据块读写到本地文件系统

(4)JobTracker

用于处理作业(用户提交代码)的后台程序

决定有哪些文件参与处理,然后切割task并分配节点

监控task,重启失败的task(于不同的节点)

每个集群只有唯一一个JobTracker,位于Master节点

(5)TaskTracker

位于slave节点上,与datanode结合(代码与数据一起的原则)

管理各自节点上的task(由jobtracker分配)

每个节点只有一个tasktracker,但一个tasktracker可以启动多个JVM,用于并行执行map或reduce任务

与jobtracker交互

(6)Master与Slave

Master:Namenode、Secondary Namenode、Jobtracker。

Slave:Tasktracker、Datanode

Master不是唯一的

时间: 2024-07-30 02:59:49

hadoop的源起与体系介绍的相关文章

Hadoop学习笔记_1_Hadoop源起与体系概述

Hadoop源起与体系概述 引[一个典型的实验环境]: 1.服务器: ESXi,可以在上面部署10多台虚拟机,能同时启动4台; ESXi可以直接安装在裸机上面,而不用首先安装一个WinServer或Linux(StandAlone安装). ESXi在本质上就是一个高度定制化的Linux,其内核与周边环境都被VMWare公司修改了. 2.PC:要求Linux环境或Windows+Cygwin,Linux可以是StandAlone或者使用虚拟机 3.SSH:Windows下可以使用SecureCRT

Hadoop学习笔记_2_Hadoop源起与体系概述[续]

Hadoop源起与体系概述 Hadoop的源起--Lucene Lucene是Doug Cutting开创的开源软件,用java书写代码,实现与Google类似的全文搜索功能,它提供了全文检索引擎的架构,包括完整的查询引擎和索引引擎 早期发布在个人网站和SourceForge,2001年年底成为apache软件基金会jakarta的一个子项目 Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎 对于大数据的

Hadoop学习系列(2.Hadoop框架介绍与搜索技术体系介绍)

第一天 2.Hadoop框架介绍与搜索技术体系介绍 1. 大数据典型特性与分布式开发难点 2. Hadoop框架介绍与搜索技术体系介绍 3. Hadoop版本与特性介绍 4. Hadoop核心模块之HDFS分布式文件系统架构介绍 5. Hadoop核心模块之Yarn操作系统架构介绍 6. Linux安全禁用设置与JDK安装讲解 7. Hadoop伪分布式环境部署HDFS部分 8. Hadoop伪分布式环境部署Yarn和MR部分 9. Hadoop环境使用常见的错误集合 10. Hadoop环境常

金融行业密钥体系介绍(转)

金融行业因为对数据比较敏感,所以对数据的加密也相应的重视.在其中有关密钥及加密方面的文章很少,并且散发在各个银行及公司的手中,在网上没有专门对这部分进行介绍的文章.本文对金融行业的密钥进行较深入的介绍,包括像到底什么是主密钥(MasterKey).传输密钥(MacKey),为什么我们需要这些东西等. 本文采取追源溯本的方式,力求让对这些感兴趣的人达到知其然,同时也知其所以然,而不是模模糊糊的知道几个概念和名词.因为本文主要是针对那些对金融行业的密钥体系不是很熟悉的人,所以如果你对密钥很熟悉就不必

Hadoop HDFS源码分析 关于数据块的类

Hadoop HDFS源码分析 关于数据块的类 1.BlocksMap 官方代码中的注释为: /** * This class maintains the map from a block to its metadata. * block's metadata currently includes blockCollection it belongs to and * the datanodes that store the block. */ BlocksMap数据块映射,管理名字节点上的数据

Hadoop 2.4.0新特性介绍

在2014年4月7日,Apache发布了Hadoop 2.4.0 .相比于hadoop 2.3.0,这个版本有了一定的改进,突出的变化可以总结为下列几点(官方文档说明): 1 支持HDFS访问控制列表(ACL,Access Control Lists) 这个特性解决了在一定情况下,文件权限访问的权限问题.其机制是基于Linux文件访问权限的特征,如果你熟悉Linux的文件访问机制,你就不用再去理解HDFS文件访问的特性了. 有了ACL特性后,对HDFS文件系统就具有了良性的扩展特性.HDFS-4

【转】线程池体系介绍及从阿里Java开发手册学习线程池的正确创建方法

jdk1.7中java.util.concurrent.Executor线程池体系介绍 java.util.concurrent.Executor : 负责线程的使用与调度的根接口  |–ExecutorService:Executor的子接口,线程池的主要接口  |–ThreadPoolExecutor:ExecutorService的实现类  |–ScheduledExecutorService:ExecutorService的子接口,负责线程的调度  |–ScheduledThreadPo

Android第一节(体系介绍),维维复习

Android的学习已经过了很久了,感觉好多知识都已经忘了,现在开始慢慢整理吧,加油! 今天我们来开始Android基础之旅吧! 一.Android的系统框架 Android的系统架构共分为4层 1.Application应用层: 2.Framework应用框架层: 3.Libraries系统运行时和系统类库层(c/c++): 4.Linux内核与硬件驱动层: 二.Android 应用开发体系介绍 1.四大组件:Activity,Service,BroadcastReceiver(广播接收器),

大数据技术之_03_Hadoop学习_02_入门_Hadoop运行模式+【本地运行模式+伪分布式运行模式+完全分布式运行模式(开发重点)】+Hadoop编译源码(面试重点)+常见错误及解决方案

第4章 Hadoop运行模式4.1 本地运行模式4.1.1 官方Grep案例4.1.2 官方WordCount案例4.2 伪分布式运行模式4.2.1 启动HDFS并运行MapReduce程序4.2.2 启动YARN并运行MapReduce程序4.2.3 配置历史服务器4.2.4 配置日志的聚集4.2.5 配置文件说明4.3 完全分布式运行模式(开发重点)4.3.1 虚拟机准备4.3.2 编写集群分发脚本xsync4.3.3 集群配置4.3.4 集群单点启动4.3.5 SSH无密登录配置4.3.6