lab-bill-hadoop-ha-davidey

Hadoop 2.2.0版本HDFS的HA配置

注:以下配置描述的是HDFS的QJM方式的HA配置。

1.1 zookeeper集群配置

这里我使用了4台机器部署zookeeper集群,机器IP分别是:

10.0.0.131 Namenode1-v2

10.0.0.132 Namenode2-v2

10.0.0.133 Datanode1-v2

10.0.0.134 Datanode2-v2

首先建立zookeeper的数据目录,比如:

mkdir -p /local/zookeeper

同时建立日志存放目录:

mkdir –p /local/zookeeper/log

然后修改环境变量(比如修改~/.bash_profile),增加如下变量:

exportZOO_HOME=/home/oracle/zookeeper-3.4.5

export ZOO_LOG_DIR=/local/zookeeper/log

在$ZOO_HOME/conf下创建配置文件:

touch zoo.cfg

在zoo.cfg文件是加入以下配置:

tickTime=2000

dataDir=/local/zookeeper

clientPort=2181

initLimit=5

syncLimit=2

server.1=10.0.0.131Namenode1-v2:31316:31317

server.2=10.0.0.132Namenode2-v2:31316:31317

server.3=10.0.0.133Datanode1-v2:31316:31317

server.4=10.0.0.134Datanode2-v2:31316:31317

在4台服务器的目录/opt/hadoop/data/zookeeper下分别创建一个叫myid的文件,内容分别是1,2,3,4如:Namenode1-v2在上执行如下命令

echo 1 >/local/zookeeper/myid

#在Namenode2-v2上执行如下命令

echo 2 >/local/zookeeper/myid

#在Datanode1-v2上执行如下命令

echo 3 >/local/zookeeper/myid

#在Datanode2-v2上执行如下命令

echo 4 >/local/zookeeper/myid

最后就是分别启动zookeeper服务了:

cd $ZOO_HOME

./bin/zkServer.sh start

通过jps命令可以检查是否启动成功:

$ jps

4567 QuorumPeerMain

看到QuorumPeerMain进程就表示zookeeper启动成功了。

测试zookeeper集群是否建立成功,在$ZOO_HOME目录下执行以下命令即可,如无报错表示集群创建成功:

zkCli.sh -server localhost:2181

1.2 HDFS2.2.0HA配置

1.2.1 core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://mycluster</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131072</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/local/temp</value>

<description>Abasefor other temporarydirectories.</description>

</property>

<property>

<name>hadoop.proxyuser.hadoop.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.hadoop.groups</name>

<value>*</value>

</property>

<property>

<name>ha.zookeeper.quorum</name>

<value>Namenode1-v2:2181,Namenode2-v2:2181,Datanode1-v2:2181,Datanode2-v2:2181</value>

</property>

<property>

<name>ha.zookeeper.session-timeout.ms</name>

<value>1000</value>

<description>ms</description>

</property>

</configuration>

1.2.2 hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/local/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/local/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

<property>

<name>dfs.permissions.enabled</name>

<value>false</value>

</property>

<property>

<name>dfs.nameservices</name>

<value>mycluster</value>

<description>Logicalname for this newnameservice</description>

</property>

<property>

<name>dfs.ha.namenodes.mycluster</name>

<value>nn1,nn2</value>

<description>Uniqueidentifiers for each NameNode in thenameservice</description>

</property>

<property>

<name>dfs.namenode.rpc-address.mycluster.nn1</name>

<value>Namenode1-v2:8020</value>

</property>

<property>

<name>dfs.namenode.rpc-address.mycluster.nn2</name>

<value>Namenode2-v2:8020</value>

</property>

<property>

<name>dfs.namenode.servicerpc-address.mycluster.nn1</name>

<value>Namenode1-v2:53310</value>

</property>

<property>

<name>dfs.namenode.servicerpc-address.mycluster.nn2</name>

<value>Namenode2-v2:53310</value>

</property>

<property>

<name>dfs.namenode.http-address.mycluster.nn1</name>

<value>Namenode1-v2:50070</value>

</property>

<property>

<name>dfs.namenode.http-address.mycluster.nn2</name>

<value>Namenode2-v2:50070</value>

</property>

<property>

<name>dfs.namenode.shared.edits.dir</name>

<value>qjournal://Namenode1-v2:8485;Namenode2-v2:8485;Datanode1-v2:8485/mycluster</value>

</property>

<property>

<name>dfs.client.failover.proxy.provider.mycluster</name>

<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

</property>

<property>

<name>dfs.ha.fencing.methods</name>

<value>sshfence</value>

</property>

<property>

<name>dfs.ha.fencing.ssh.private-key-files</name>

<value>/home/oracle/.ssh/id_rsa_nn2</value>

</property>

<property>

<name>dfs.ha.fencing.ssh.connect-timeout</name>

<value>30000</value>

</property>

<property>

<name>dfs.journalnode.edits.dir</name>

<value>/local/journaldata</value>

</property>

<property>

<name>dfs.ha.automatic-failover.enabled</name>

<value>true</value>

</property>

<property>

<name>ha.failover-controller.cli-check.rpc-timeout.ms</name>

<value>60000</value>

</property>

<property>

<name>ipc.client.connect.timeout</name>

<value>60000</value>

</property>

<property>

<name>dfs.image.transfer.bandwidthPerSec</name>

<value>4194304</value>

</property>

</configuration>

在上面的配置中有一个地方要特别说明一下,dfs.ha.fencing.ssh.private-key-files这里指向的是一个本地文件。上面我们是配置了两个namenode来实现HDFS的HA的,分别是nn1和nn2,在nn2的~/.ssh/目录下需要将nn1的~/.ssh/目录下的id_rsa文件copy过来,并且应该重命名成如id_rsa_nn1这样的文件名,以免覆盖了本地的文件。

1.2.3 yarn-site.xml

<configuration>

<!-- Site specific YARN configurationproperties -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>Namenode1-v2:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>Namenode1-v2:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>Namenode1-v2:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>Namenode1-v2:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>Namenode1-v2:8088</value>

</property>

</configuration>

1.3 installphase

安装环境:

硬件环境:5台服务器,2台namenode,3台datanode,分别如下:

10.0.0.131 Namenode1-v2 主namenode,zookeeper,journalnode,zkfcResourceManager

10.0.0.132 Namenode2-v2 备namenode,zookeeper,journalnode,zkfc

10.0.0.133 Datanode1-v2   datanode,zookeeper,journalnode,NodeManagerHRegionServer

10.0.0.134 Datanode2-v2   datanode,zookeeper,journalnode,NodeManagerHRegionServer

10.0.0.135 Datanode3-v2   datanode,  hive    journalnode,NodeManager HRegionServer

0、首先把各个zookeeper起来

./bin/zkServer.sh start

1、然后在某一个namenode节点执行如下命令,创建命名空间

$HADOOP_HOME/bin/hdfs zkfc -formatZK

2、在各个节点用如下命令启日志程序

$HADOOP_HOME/sbin/hadoop-daemon.sh startjournalnode

3、在主namenode节点用./bin/hadoopnamenode-format格式化namenode和journalnode目录

$HADOOP_HOME/bin/hadoop namenode -formatmycluster

4、在主namenode节点启动./sbin/hadoop-daemon.shstartnamenode进程

$HADOOP_HOME/sbin/hadoop-daemon.sh startnamenode

5、在备节点执行第一行命令,这个是把备namenode节点的目录格式化并把元数据从主namenode节点copy过来,并且这个命令不会把journalnode目录再格式化了!然后用第二个命令启动备namenode进程!

$HADOOP_HOME/bin/hdfs namenode–bootstrapStandby

$HADOOP_HOME/sbin/hadoop-daemon.sh startnamenode

6、在两个namenode节点都执行以下命令

./sbin/hadoop-daemon.sh start zkfc

7、在所有datanode节点都执行以下命令启动datanode

$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode

1.4 startup phase

下次启动的时候,就直接执行以下命令就可以全部启动所有进程和服务了:

$HADOOP_HOME/sbin/start-dfs.sh

然后访问以下两个地址查看启动的两个namenode的状态:

http://Namenode1-v2:50070/dfshealth.jsp

http://Namenode2-v2:50070/dfshealth.jsp

1.5 stop phase

停止所有HDFS相关的进程服务,执行以下命令:

$HADOOP_HOME/sbin/stop-dfs.sh

1.6 测试HDFS的HA功能

在任意一台namenode机器上通过jps命令查找到namenode的进程号,然后通过kill -9的方式杀掉进程,观察另一个namenode节点是否会从状态standby变成active状态。

$ jps

7456 JournalNode

7783 QuorumPeerMain

6783 NameNode

4090 Jps

5567 DFSZKFailoverController

$ kill -9 6783

然后观察原来是standby状态的namenode机器的zkfc日志,若最后一行出现如下日志,则表示切换成功:

2013-12-31 16:14:41,114INFOorg.apache.hadoop.ha.ZKFailoverController: Successfully transitionedNameNodeat :53310 to Namenode2-v2 active state

这时再通过命令启动被kill掉的namenode进程

$HADOOP_HOME/sbin/hadoop-daemon.sh startnamenode

对应进程的zkfc最后一行日志如下:

2013-12-31 16:14:55,683INFOorg.apache.hadoop.ha.ZKFailoverController: Successfully transitionedNameNodeat Namenode1-v2:53310 to standby state

可以在两台namenode机器之间来回kill掉namenode进程以检查HDFS的HA配置!

1.7转换active

在hadoop100执行命令  hdfs  haadmin -transitionToActive  Namenode2-v2

再使用浏览器访问 http://Namenode1-v2:50070 和http://Namenode2-v2:50070,会发现Namenode2-v2节点变为active,Namenode1-v2还是standby。

你如果想实验一下NameNode切换,执行命令  hdfs  haadmin –failover –forceactiveNamenode1-v2 Namenode2-v2

如果向上传数据,还需要修改core-site.xml中的fs.default.name的值,改为hdfs://Namenode1-v2:9000 才行。

现在把我环境中的hadoop-ha部分分享给大家,希望我和大家的保持这份学习热情,后续会把hbase hive 和 sqoop相关文档发给大家。然后把flume作为一个案例共享给大家。最后把整个hadoop体系的统一管理脚本分享给大家。

一起共建我们的《云络智慧城市》,欢迎大家和大家的技术发烧友一起加入我们的qq群262407268。

请大家自觉修改备注,谢谢。申明该群是一个公益性社区,我们愿意承接一些架构的设计,建设和咨询业务,为您和您的企业改善业务架构。

时间: 2024-10-09 21:19:32

lab-bill-hadoop-ha-davidey的相关文章

Hadoop HA HDFS启动错误之org.apache.hadoop.ipc.Client: Retrying connect to server问题解决

近日,在搭建Hadoop HA QJM集群的时候,出现一个问题,如本文标题. 网上有很多HA的博文,其实比较好的博文就是官方文档,讲的已经非常详细.所以,HA的搭建这里不再赘述. 本文就想给出一篇org.apache.hadoop.ipc.Client: Retrying connect to server错误的解决的方法. 因为在搜索引擎中输入了错误问题,没有找到一篇解决问题的.这里写一篇备忘,也可以给出现同样问题的朋友一个提示. 一.问题描述 HA按照规划配置好,启动后,NameNode不能

hadoop HA 详解

NameNode 高可用整体架构概述 在 Hadoop 1.0 时代,Hadoop 的两大核心组件 HDFS NameNode 和 JobTracker 都存在着单点问题,这其中以 NameNode 的单点问题尤为严重.因为 NameNode 保存了整个 HDFS 的元数据信息,一旦 NameNode 挂掉,整个 HDFS 就无法访问,同时 Hadoop 生态系统中依赖于 HDFS 的各个组件,包括 MapReduce.Hive.Pig 以及 HBase 等也都无法正常工作,并且重新启动 Nam

使用Nginx+Lua代理Hadoop HA

一.Hadoop HA的Web页面访问 Hadoop开启HA后,会同时存在两个Master组件提供服务,其中正在使用的组件称为Active,另一个作为备份称为Standby,例如HDFS的NameNode.YARN 的ResourceManager.HDFS的web页面只有通过Active的NameNode才能正常访问,同样地,YARN的web页面也只有通过Active的ResouceManager才能正常访问. (1) HDFS HA的Web访问 正常使用Nginx的proxy_pass代理单

图说Hadoop HA

1.hadoopHA 概览 2.hadoop HA 架构图 3.架构 4.运行流程图 5.组件

Hadoop HA高可用集群搭建(2.7.2)

1.集群规划: 主机名        IP                安装的软件                            运行的进程 drguo1  192.168.80.149 jdk.hadoop                         NameNode.DFSZKFailoverController(zkfc).ResourceManager drguo2 192.168.80.150  jdk.hadoop                         Nam

Hadoop HA + HBase环境搭建(一)————zookeeper和hadoop环境搭建

版本信息: Hadoop 2.6.3 HBase 1.0.3 JDK 1.8 Zookeeper 3.4.9 集群信息: RDFMaster 192.168.0.41 (Hadoop主节点,zk节点,HBase主节点) RDFSlave01 192.168.0.42 (Hadoop备份主节点,从节点,zk节点,HBase的RegionServer) RDFSlave02 192.168.0.43 (从节点,zk节点,HBase的RegionServer) RDFSlave03 192.168.0

Spark 在Hadoop HA下配置HistoryServer问题

我的Spark机群是部署在Yarn上的,因为之前Yarn的部署只是简单的完全分布式,但是后来升级到HA模式,一个主NN,一个备NN,那么Spark HistoryServer的配置也需要相应的做修改,因为不做修改会报错 Exception in thread "main" java.lang.reflect.InvocationTargetException at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native

Hadoop HA搭建

hadoop HA部署 说明:    1.在hadoop2.0中通常由两个NameNode组成,一个处于active状态,另一个处于standby状态.Active NameNode对外提供服务,而Standby NameNode则不对外提供服务,仅同步active namenode的状态,      以便能够在它失败时快速进行切换.hadoop2.0官方提供了两种HDFS HA的解决方案,一种是NFS,另一种是QJM.这里我们使用简单的QJM.在该方案中,主备NameNode之间通过一组Jou

hadoop HA + HBase HA搭建:

hadoop HA搭建参考:https://www.cnblogs.com/NGames/p/11083640.html (本节:用不到YARN 所以可以不用考虑部署YARN部分) Hadoop 使用分 布式文件系统,用于存储大数据,并使用 MapReduce 来处理.Hadoop 擅长于存储各种格式 的庞大的数据,任意的格式甚至非结构化的处理. Hadoop 的限制: Hadoop 只能执行批量处理,并且只以顺序方式访问数据.这意味着必须搜索整个数据集, 即使是最简单的搜索工作.这一点上,一个

Hadoop HA 集群配置文件

> 1.hadoop-env.sh配置 export JAVA_HOME=(jdk安装地址) > 2.hdfs-site.xml配置文件 <此新名称服务的逻辑名称><property><name> dfs.nameservices </ name><value> mycluster </ value></property><名称服务中每个NameNode的唯一标识符><property>