Hadoop1.x版本升级Hadoop2.x

引言

随着企业数据化和Hadoop的应用越加广泛,hadoop1.x的框架设计越来越无法满足人们对需求,Apache一直在对Hadoop1.x进行修改,最后推出了新一代的Hadoop2.x。从业界使用分布式系统的变化趋势和 hadoop 框架的长远发展来看,MapReduce 的 JobTracker/TaskTracker 机制需要大规模的调整来修复它在可扩展性,内存消耗,线程模型,可靠性和性能上的缺陷。为从根本上解决旧 MapReduce 框架的性能瓶颈,促进 Hadoop 框架的更长远发展,从 0.23.0 版本开始,Hadoop 的 MapReduce 框架完全重构,发生了根本的变化。新的 Hadoop MapReduce 框架命名为 MapReduceV2 或者叫 Yarn。

一 hadoop1.0版本与2.0版本的差异

1.1 HDFS之间的差异

1.1.1  Hadoop1.x

在Hadoop1.x中,HDFS的采用Masters/Slaves的方式设计集群,通过NameNode和DataNode的方式管理集群。在整个Hadoop1.x HDFS中分为Namespace和BlockStorageServer两个部分。其中Namespace完全分布在NameNode节点中,Namespace其中包括了所有文件的元数据、images镜像和edits文件等。而BlockStorageServer分布则是分布在NameNode节点和Datanode节点上的,在NamNodee节点中存放了所有的Block与DataNode节点之间的对应关系。而在Block的内容数据则是在DataNode节点中分布式存放着。如图1,Hadoop1.x版本HDFS示意图所示。

图1  Hadoop1.x版本HDFS示意图

弊端:

1)因为NameNode节点是整个集群的中心,一旦NameNode发生宕机,将会导致整个集群的瘫痪,直到NameNode被重启以后问题才被解决。

2)NameNode节点的个数只有一个,单机的性能是有限的,并且NameNode中存放着有关DataNode节点的信息,因此在理论上无法实现横向无限性增加DataNode节点,这也就是为什么有NameNode最多支持4000个节点的由来。

1.1.2  Hadoop 2.x

Hadoop2.x实现联邦HDFS,即多个NameNode节点并存,并且每一个NameNode节点管理一个Namespace,如图2,Hadoop2.x的HDFS示意图所示。

图2 Hadoop2.x的HDFS示意图

Block Pool:block池,一个NameNode管理的所有的block节点,一个NameNode节点和去的Pool为一个管理单元,来管理自己的Block。

在联邦HDFS中,每个Namespace都有自己的Block管理,但这些Block全部存放在整个DataNode集群中,如上图所示,Namespace之间是相互隔离的,即使一个NameNode节点宕机,也不会影响到其他NameSpace,同时也不会影响到其管理的Datanodes中的Block。

优势:

(1)可以做到自由的横向无限制扩充DataNode节点。

(2)可以实现多个NameNode并发执行任务,提高HDFS系统的吞吐量

(3)安全性得到很大的提示,单个NameNode节点的崩溃不会导致整个系统的瘫痪。

1.2  MapReduce之间的区别

1.2.1  Hadoop1.x

Hadoop1.x运行MapReduce任务的流程为:

(1)Job Client提交任务给JobTracker(NameNode节点中),JobTracker向各个节点发出询问请求,查看每个DataNode节点中执行的Task(任务)的个数

(2)JobTrack收集DataNodes的信息,并对Job进行资源分配。

(3)将MapReduce任务所需的资源、信息等全部复制到Datanodes节点中。

(4)DataNode节点接受任务后,将本地的Block读取,并形成相应的Map和Reduce任务,这些任务的管理全部由DataNodes节点中的TaskTracker进行监督。如图3,MapReduce示意图所示。

图3  MapReduce示意图

从图中可知,JobTacker是整个Hadoop1.x MapReduce框架的中心,其承担的任务有:接受任务、计算资源、分配资源、与DataNode进行交流等功能。Hadoop1.x 框架在发布时收到很大的欢迎,但是随着需求越来越大,Hadoop1.x 的MapReduce(MapReduce v1)已经不能够胜任现在的需求,主要表现在以下几个问题:

(1)JobTracker是整个MapReduce v1的核心,存在单点故障。

(2)JobTracker管理整个MapReduce作业的任务,造成资源消耗,当map/reduce task过多的时候,JobTracker将会耗费大量内存,同时也增加Job Tracker fail的风险。

(3)JobTracker对DataNode进行资源询问,使用的Task的个数,为考虑内存和CPU的使用率等,如果将两个大内存的Map/reduce Task放在一个节点上执行,可能会出现内存溢出。

(4)代码层中的类有些超过3000行,导致整个类的任务不够明确,并且进行修改是任务量也巨大,因此增加了维护、开发人员进行修改的难度。

1.2.2  Hadoop2.x

为了应对越来越大的需求,已经MapReduce v1的弊端,Apache对MapReduce v2进行了重新设计,出现了MapReduce v2,也就是YARN框架。下面介绍一下YARN框架。如图4,YARN示意图所示。

图4  YARN示意图

名词解释:

ResourceManager:以下简称RM。YARN的中控模块,负责统一规划资源的使用。

NodeManager:以下简称NM。YARN的资源结点模块,负责启动管理container。

ApplicationMaster:以下简称AM。YARN中每个应用都会启动一个AM,负责向RM申请资源,请求NM启动container,并告诉container做什么事情。

Container:资源容器。YARN中所有的应用都是在container之上运行的。AM也是在container上运行的,不过AM的container是RM申请的。

(1)ResourceManager:在MapReduce v1中,JobTracker的任务有两个:资源管理和任务调度。而在YARN框架中,将JobTracker的两个核心任务进行分离,其中的资源管理形成新的ResourceManager。ResourceManager负责管理每个NodeManager节点所提供的资源状态(内存、CPU、磁盘和带宽等传统信息)。在MapReduce任务的时候,RM会精确计算每个整个集群的资源情况,已分配给该任务合适的资源。

(2)Container:对一个节点的内存、CPU等资源的描述的整体描述。

(3)ApplicationMaster:每一个MapReduce任务都对应着一个AM,AM负责向ResourceManager索要执行任务所需要的资源容器,根据进程的状态、管理进行和处理进程失败的原因。

(4)NodeManager:是一个机器框架的代理,是任务执行的容器,其管理着节点的诸多信息:例如内存、CPU、硬盘、网络等资源。

YARN相对于MapReduce v1的优势:

(1)JobTracker所承担的庞大负担被分割,分成了resourceManager和nodemanager。资源管理和任务调度分配在不同的节点,并且实现程序的分布化、最优化。

(2)ResourceManager资源分配不再凭借slot的个数,而是根据节点的内存是分配任务,使得负载均衡更在完善。

(3)ResourceManager节点上有一个ApplicationMasters进程,负责管理每个ApplicationMatser进程的状态,从而实现监督任务。

1.3  其它差异

MapReduce变成了和HBase和Hive等一样的YARN上面的一个应用;Hadoop1.x的默认块大小为64M,Hadoop2.x的默认块大小为128M;在2.x中除了datanode要向namenode报告status,nodemanager也要向ResourceManager报告status。

二、 Hadoop1.x升级Hadoop2.x实现

版本情况:老版本Hadoop1.0.3;新版本Hadoop2.6.4。

HOST信息:

升级所需下载安装包:

hadoop-2.6.4.tar.gz http://apache.opencas.org/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz

jdk-8u77-linux-x64.tar.gz:官网下载

包的放置路径:/usr/local/src/

创建新的HDFS系统目录和测试文件:

[[email protected] ~]# hadoop fs -mkdir /test

[[email protected] ~]# hadoop fs -put /home/hadoop/hadoop/conf/*  /test/

解压jdk安装包(每个节点都要操作):

[[email protected] ~]# cd /usr/local/src

[[email protected] ~]#tar zxvf jdk-8u77-linux-x64.tar.gz

备份旧的jdk(每个节点都要操作):

[[email protected] ~]#mv  /usr/local/jdk1.6  /usr/local/jdk1.6.bak

替换新的jdk版本(每个节点都要操作):

[[email protected] ~]#mv  jdk1.8.0_77 /usr/local/jdk/

修改jdk环境(每个节点都要操作):

[[email protected] ~]#vim /etc/profile

更改JAVA_HOME

export JAVA_HOME=/usr/local/jdk

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin

[[email protected] ~]#source /etc/profile

验证jdk是否成功:

[[email protected] ~]#java –version

2.2  namenode节点操作

解压hadoop2.6的包:

[[email protected] ~]#tar zxvf hadoop-2.6.4.tar.gz

备份hadoop1.0(每个节点都操作):

[[email protected] ~]#mkdir /home/hadoop/backup

[[email protected]~]#mv /home/hadoop/hadoop /home/hadoop/backup/

备份好集群namenode的元数据(${HADOOP_HOME}/conf/hdfs-site.xml中的dfs.name.dir所配置的文件夹):

[[email protected] ~]#cp –r /data/work/hdfs/name /data/backup/hdfsname.20160418.bak

安装hadoop2.6:

[[email protected] ~]#mv /usr/local/src/hadoop-2.6.4 /home/hadoop/hadoop

[[email protected] ~]#chown -R hadoop.hadoop /home/hadoop/hadoop

切换到hadoop用户:

[[email protected] ~]#su – hadoop

修改用户环境(每个节点都操作):

[hadoop@namenode ~]$vim /home/hadoop/.bash_profile

修改:

export HADOOP_HOME=/home/hadoop/hadoop

export PATH=$PATH:$HADOOP_HOME:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME_WARN_SUPPRESS=1

export PATH

[hadoop@namenode ~]$source /home/hadoop/.bash_profile

p8

2.3  修改配置文件

[hadoop@namenode ~]$cd /home/hadoop/hadoop/etc/hadoop/

[hadoop@hadoop/ ~]$vim hadoop-env.sh

修改export JAVA_HOME=/usr/local/jdk

增加export HADOOP_PREFIX=/home/hadoop/hadoop

export HADOOP_HEAPSIZE=15000

[hadoop@hadoop/ ~]$vim yarn-env.sh

修改export JAVA_HOME=/usr/local/jdk

[hadoop@hadoop/ ~]$vim mapred-env.sh

修改export JAVA_HOME=/usr/local/jdk

[hadoop@hadoop/ ~]$vim hdfs-site.xml

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

<name>dfs.namenode.http-address</name>

<value>namenode:50070</value>

<description> NameNode 通过当前参数 获得 fsimage 和 edits </description>

</property>

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>node2:50090</value>

<description> SecondNameNode 通过当前参数 获得最新的 fsimage </description>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

<description> 设定 HDFS 存储文件的副本个数,默认为3 </description>

</property>

<property>

<name>dfs.namenode.checkpoint.dir</name>

<value>file:///home/hadoop/hadoop2.2/hdfs/namesecondary</value>

<description> 设置 secondary 存放 临时镜像 的本地文件系统路径,如果这是一个用逗号分隔的文件列表,则镜像将会冗余复制到所有目录,只对 secondary 有效 </description>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:///data/work/hdfs/name/</value>

<description> namenode 用来持续存放命名空间和交换日志的本地文件系统路径 </description>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:///data/work/hdfs</value>

<description> DataNode 在本地存放块文件的目录列表,用逗号分隔 </description>

</property>

<property>

<name>dfs.stream-buffer-size</name>

<value>131072</value>

<description> 默认是4KB,作为hadoop缓冲区,用于hadoop读hdfs的文件和写

hdfs的文件,还有map的输出都用到了这个缓冲区容量,对于现在的硬件很保守,可以设置为128k

(131072),甚至是1M(太大了map和reduce任务可能会内存溢出) </description>

</property>

<property>

<name>dfs.namenode.checkpoint.period</name>

<value>3600</value>

<description> 两次 checkpoints 之间的间隔,单位为秒,只对 secondary 有效 </description>

</property>

</configuration>

[hadoop@hadoop/ ~]$vim mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

[hadoop@hadoop/ ~]$vim yarn-site.xml

<?xml version="1.0"?>

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

[hadoop@hadoop/ ~]$vim core-site.xml

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://namenode:9000/</value>

<description> 设定 namenode 的 主机名 及 端口 </description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/tmp</value>

<description> 存放临时文件的目录 </description>

</property>

</configuration>

新建文件目录(所有节点操作)

$mkdir /home/hadoop/tmp

$mkdir /data/work/hdfs/namesecondary/

$chown -R hadoop.hadoop  /home/hadoop/tmp/

$ chown -R hadoop.hadoop  /data/work/hdfs/namesecondary/

启动hdfs

[hadoop@namenode ~]$tart-dfs.sh

[hadoop@namenode ~]$hadoop-daemon.sh start namenode -upgrade

重新启动所有守护线程

[hadoop@namenode ~]$stop-dfs.sh

[hadoop@namenode ~]$start-all.sh

查看元数据是否成功保留

[hadoop@namenode ~]$hadoop fs -ls /

成功之后停掉所有守护进程

[hadoop@namenode ~]$stop-all.sh

修改/home/hadoop/hadoop/etc/hadoop/slaves

[hadoop@namenode ~]$vim slaves

修改:

node1

node2

将hadoop文件拷贝给其它节点

[hadoop@namenode ~]$scp -r /home/hadoop/hadoop node2:/home/hadoop/hadoop/

[hadoop@namenode ~]$scp -r /home/hadoop/hadoop node1:/home/hadoop/hadoop/

Node1,2节点修改hadoop的目录权限

$chown -R hadoop.hadoop /home/hadoop/hadoop

namenode启动守护线程

[hadoop@namenode ~]$start-all.sh

namenode和datanode的dfs.namenode.name.dir目录下(本次实验中为/data/work/hdfs/name)会多出一个文件夹previous/或者通过jps查看信息

文件夹previous/,这是升级之前数据的备份,如果回滚也是需要有这个文件夹。

时间: 2024-10-28 20:06:51

Hadoop1.x版本升级Hadoop2.x的相关文章

Hadoop1.X 与 Hadoop2.X区别及改进

一:Haddop版本介绍 0.20.x版本最后演化成了现在的1.0.x版本 0.23.x版本最后演化成了现在的2.x版本 hadoop 1.0 指的是1.x(0.20.x),0.21,0.22 hadoop 2.0 指的是2.x,0.23.x CDH3,CDH4分别对应了hadoop1.0 hadoop2.0 二.Hadoop1.X与Hadoop2.X区别 1.HDFS的改进 1.1 Hadoop1.x时代的HDFS架构 在Hadoop1.x中的NameNode只可能有一个,虽然可以通过Seco

大话Hadoop1.0、Hadoop2.0与Yarn平台

2016年12月14日21:37:29 Author:张明阳 博文链接:http://blog.csdn.net/a2011480169/article/details/53647012 近来这几天一直在忙于Hbase的实验,也没有太静下心来沉淀自己,今天打算写一篇关于Hadoop1.0.Hadoop2.0与Yarn的博文,从整体上把握三者之间的联系,博客内容如有问题,欢迎留言指正!OK,进入本文正题-- 在开始接触Hadoop的时候,也许大家对于Hadoop是下面的一个概念:Hadoop由两部

Hadoop入门进阶步步高(六)-Hadoop1.x与Hadoop2的区别

六.Hadoop1.x与Hadoop2的区别 1.变更介绍 Hadoop2相比较于Hadoop1.x来说,HDFS的架构与MapReduce的都有较大的变化,且速度上和可用性上都有了很大的提高,Hadoop2中有两个重要的变更: l HDFS的NameNodes可以以集群的方式布署,增强了NameNodes的水平扩展能力和可用性: l MapReduce将JobTracker中的资源管理及任务生命周期管理(包括定时触发及监控),拆分成两个独立的组件,并更名为YARN(Yet Another Re

Hadoop1.x与Hadoop2的区别

Hadoop2相比较于Hadoop1.x来说,HDFS的架构与MapReduce的都有较大的变化,且速度上和可用性上都有了很大的提高,Hadoop2中有两个重要的变更: 1.HDFS的NameNodes可以以集群的方式布署,增强了NameNodes的水平扩展能力和可用性: 2.MapReduce将JobTracker中的资源管理及任务生命周期管理(包括定时触发及监控),拆分成两个独立的组件,并更名为YARN(Yet Another Resource Negotiator).

Maven构件Hadoop1.x以及Hadoop2.x项目

参看文档 http://blog.fens.me/hadoop-maven-eclipse/ http://blog.csdn.net/tryhl/article/details/43967441 也可以关注我的另外一篇文章http://www.aboutyun.com/blog-12709-1768.html 也可以加入群 316297243一起学习讨论 此文章用于学习和交流,转载请注明 1   Hadoop1.x的Maven项目构建 怎么用Maven构建项目,以及怎么构建hadoop项目,这

Hadoop1.x与Hadoop2.x之间的差异

一.Hadoop2.x产生背景 1.Hadoop1.x中的HDFS和MapReduce在高可用.扩展性等方面存在问题. 2.HDFS存在的问题 1.NameNode单点故障,难以应用于在线场景. 2.NameNode压力过大,且内存受限,影响扩展性. 3.MapReduce存在的问题 1.JobTracker访问压力大,影响系统扩展性. 2.难以支持除MapReduce之外的计算框架,比如Spark.Strom等. 二.架构差异 1.Hadoop1.x由HDFS和MapReduce组成,不支持H

hadoop1.0安装部署

一.需求 公司线上运行有hadoop1.0和hadoop2.0,由于hadoop1.0没有处理jobtracker失败机制,它是一个单点故障,但业务还是以1.0为主,会慢慢过渡到2.0.以下我将以公司目前环境把写1.0部署步聚写出来 二.知识点储备 1.hadoop中NameNode.DataNode.Secondary.NameNode.JobTracker TaskTracker介绍 http://zouqingyun.blog.51cto.com/782246/1656353 2.Hado

hadoop1.2.1配置与运行子串统计程序

一.虚拟机版本 VirtualBox-4.3.30 二.操作系统 CentOS-6.7-x86_64-bin-DVD1.iso 下载地址1:http://www.centoscn.com/CentosSoft/iso/2015/0813/6001.html 三.安装两个Linux虚拟机 名字取名为hadoop1和hadoop2 具体步骤可以参考百度经验 只是注意细节在创建虚拟机时需要将内存大小修改1024MB,因为过低的内存将无法安装桌面系统,只能以命令行形式进行操作,并且建议不要选择安装最小桌

Hadoop2的简单安装

---恢复内容开始--- 前面花了很多时间来介绍hadoop1的安装,随着hadoop的发展,hadoop2的应用也越来越普及,hadoop2解决了hadoop1中的很多问题,比如单点故障,namenode容量小的问题. 我们先来安装最简单的版本 Hadoop 版本:2.2.0 OS 版本: Centos6.4 Jdk 版本: jdk1.6.0_32 环境配置 机器名 Ip地址 功能 Hadoop1 192.168.124.135 NameNode, DataNode, SecondaryNam