Configuring HDFS High Availability

原文请訪问 http://blog.csdn.net/ashic/article/details/47024617,突袭新闻小灵儿,linux公社,各种爬虫狗。在这里问候你们全家

我们能够通过Clouder Manager来配置你的CDH4 Cluster来实现HDFS的HA

一、SecondaryNameNode能否够在NameNode宕机时接管,成为新的“NameNode”?

答案是否定的

NameNode

首先我们须要了解,NameNode负责管理文件系统的namespace,维护整个文件系统的文件文件夹树。及这些文件的索引文件夹。

这些信息以两种形式存储在本地文件系统中:

1.命名空间镜像(fsimage)

2.编辑日志(edit-logs)

须要注意的是,这些信息不是永久保存的,NameNode会在每次系统启动时动态地重建这些信息

SecondaryNameNode

从元数据节点并非元数据节点出现故障时候的备用节点,它和元数据节点负责不同的事情

其主要功能就是周期性将元数据节点的命名空间镜像文件和改动日志合并,以防日志文件过大

合并过后的命名空间镜像文件也在从元数据节点保存了一份。以防元数据节点失败的时候。能够恢复

二、配置HDFS HA(採用QJM)

HDFS HA架构中,由两个NameNode组成 —— Active NameNode 和 Standby NameNode

仅仅有一个NameNode能够处于Active状态

为了让Standby Node与Active Node保持同步,这两个Node都与一组称为JNS的互相独立的进程保持通信(Journal Nodes)。当Active Node上更新了namespace,它将记录改动日志发送给JNS的多数派。

Standby noes将会从JNS中读取这些edits,并持续关注它们对日志的变更。Standby Node将日志变更应用在自己的namespace中。当failover发生时,Standby将会在提升自己为Active之前。确保可以从JNS中读取全部的edits-log;即在failover发生之前,Standy持有的namespace应该与Active保持全然同步。

三、配置HA

1.Enabling High Availability with Quorum-based Storage

1.1点击-服务,选择HDFS

1.2点击-实例

1.3点击-启用High Availability

1.4下一个页面显示了有资格作为Standby NameNode和JournalNodes的主机

a.选择 启用基于Quorum存储的High Availability为High Availability类型

b.选择你要作为Standby NameNode的主机.Standby NameNode和Active NameNode不能够再一台主机上,而且要和Active NameNode拥有同样的硬件配置

c.选择奇数数量的host作为JournalNodes.JournalNodes应部署在与NameNode具有相似硬件配置的主机上。建议在Active NameNode和Standby NameNode分别部署一个JournalNode,并在一个与它们具有相似硬件配置的主机不是第三个JournalNode.

d.点击-继续

1.5在接下来出现的界面,为每一个JournalNode指定JournalNode编辑文件夹

a.你仅仅须要为每一个JournalNode指定一个文件夹。文件夹的名称不必统一

b.指定的文件夹由于空文件夹,而且有合适的权限

c.假设文件夹不为空,Clouder Manager不会删除这些内容;however, in that case the data should be in sync across the edits directories of the JournalNodes and should have the same version data as the NameNodes.

1.6点击-继续

假设你须要使用Hive,Impala或者Hue。你还须要运行以下的操作步骤

2.Post Setup Steps for Hue and Hive

不论你使用 Quorum-based storage 还是 NFS-mounted shared edits directory。你都是按以下的步骤进行配置来启用HA

2.1Configuring Hue to work with High Availability

2.1.1点击-服务。选择HDFS

2.1.2点击-实例

2.1.3点击-加入

2.1.4在接下来的页面,在HttpFS这一列中选择一个主机来安装HttpFS role。然后点击-继续

2.1.5返回实例页面,选择你刚才选择将要安装HttpFS role的主机

2.1.6点击-已选定的操作-点击启动

2.1.7当启动命令运行完成后,点击-服务-选择Hue

2.1.8点击-配置-查看和编辑

2.1.9在接下来出现的界面中。选择-服务范围,找到HDFS Web界面角色-选择之前选择的HttpFS role主机。然后点击保存更改

2.1.10重新启动Hue服务,是配置生效

3.Updating the Hive Metastore for HDFS High Availability

3.1点击-服务,选择Hive

3.2点击-操作-停止

3.3备份你的Hive数据库

3.4点击-操作-更新Hive metastore NameNode

3.5点击-操作-启动

3.6启动Hue和Impla,假设你之前关闭了

四、启用 Automatic Failover

注意:启动或禁用 Automatic Failover会关闭HDFS服务 和 基于HDFS的服务!

1.点击-服务。选择HDFS

2.点击-实例

3.点击-启用自己主动故障转移

启动故障自己主动转移成功

时间: 2024-10-23 16:19:44

Configuring HDFS High Availability的相关文章

HDFS Federation与HDFS High Availability详解

HDFS Federation NameNode在内存中保存文件系统中每个文件和每个数据块的引用关系,这意味着对于一个拥有大量文件的超大集群来说,内存将成为限制系统横向扩展的瓶颈.在2.0发行版本系列中引入的Federation HDFS允许 系统通过添加NameNode实现扩展,其中每个NameNode管理文件系统命名空间的一部分.在Federation环境下,每个NameNode维护一个命名空间卷(NameSpace Volume),包括命名空间的元数据和在该命名空 间下的文件的所有的数据块

HDFS High Availability Using the Quorum Journal Manager

目的 本指南提供一个HDFS HA特性的综述,描述了如何使用QJM配置和管理一个HA HDFS集群.本文档假设读者对于HDFS中的通用组件和节点类型有一个大体的认识.请参考HDFS架构指南获取更多信息. 注意:使用QJM或者传统的共享存储 本文档讨论了如何用QJM配置和使用HDFS HA在Active NameNode和Standby NameNode共享edit日志文件.关于如何使用NFS代替QJM作为共享存储配置HDFS HA的信息,请看High Availability With NFS.

HDFS High Availability体系介绍(Using the Quorum Journal Manager)

一.背景 HDFS集群中只有一个Namenode,这就会引入单点问题:即如果Namenode故障,那么这个集群将不可用,直到Namenode重启或者其他Namenode接入. 有两种方式会影响集群的整体可用性: 1. 意外的突发事件,比如物理机器crash,集群将不可用,直到管理员重启Namenode. 2. 系统维护,比如软件升级等,需要关闭Namenode,也会导致集群暂时性的失效. HDFS HA特性即解决这个问题,它通过在集群中同时运行2个(redundant)Namenodes,并让a

hadoop权威指南(第四版)要点翻译(4)——Chapter 3. The HDFS(1-4)

Filesystems that manage the storage across a network of machines are called distributed filesystems. Since they are network based, all the complications of network programming kick in, thus making distributed filesystems more complex than regular dis

HDFS HA架构以及源码引导

HA体系架构 相关知识介绍 HDFS master/slave架构,HDFS节点分为NameNode节点和DataNode节点.NameNode存有HDFS的元数据:主要由FSImage和EditLog组成.FSImage保存有文件的目录.分块ID.文件权限等,EditLog保存有对HDFS的操作记录.DataNode存放分块的数据,并采用CRC循环校验方式对本地的数据进行校验,DataNode周期性向NameNode汇报本机的信息. NameNode单点故障:HDFS只有一个NameNode节

Hadoop2.6集群环境搭建(HDFS HA+YARN)原来4G内存也能任性一次.

准备工作: 1.笔记本4G内存 ,操作系统WIN7 (屌丝的配置) 2.工具VMware Workstation 3.虚拟机:CentOS6.4共四台 虚拟机设置: 每台机器:内存512M,硬盘40G,网络适配器:NAT模式 选择高级,新生成虚机Mac地址(克隆虚拟机,Mac地址不会改变,每次最后手动重新生成) 编辑虚拟机网络: 点击NAT设置,查看虚机网关IP,并记住它,该IP在虚机的网络设置中非常重要. NAT设置默认IP会自动生成,但是我们的集群中IP需要手动设置. 本机Win7 :VMn

HDFS HA架构以及源代码引导

HA体系架构 相关知识介绍 HDFS master/slave架构,HDFS节点分为NameNode节点和DataNode节点. NameNode存有HDFS的元数据:主要由FSImage和EditLog组成. FSImage保存有文件的文件夹.分块ID.文件权限等,EditLog保存有对HDFS的操作记录. DataNode存放分块的数据,并採用CRC循环校验方式对本地的数据进行校验,DataNode周期性向NameNode汇报本机的信息. NameNode单点故障:HDFS仅仅有一个Name

hadoop 的HDFS 的 standby namenode无法启动事故处理

standby namenode无法启动 现象:线上使用的2.5.0-cdh5.3.2版本Hadoop,开启了了NameNode HA,HA采用QJM方式.hadoop的集群的namenode的standby节点宕掉,重启无法启动成功. 1. standby namenode出现异常时的现象 异常现象1: hadoop的集群的namenode的standby节点宕掉,重启无法启动成功.查看hadoop-hdfs-namenode-hostname.log,发现报出如下异常:" org.apach

Hadoop 2.0中单点故障解决方案总结

项目构建 Hadoop 1.0内核主要由两个分支组成:MapReduce和HDFS,众所周知,这两个系统的设计缺陷是单点故障,即MR的JobTracker和HDFS的NameNode两个核心服务均存在单点问题,该问题在很长时间内没有解决,这使得Hadoop在相当长时间内仅适合离线存储和离线计算. 令人欣慰的是,这些问题在Hadoop 2.0中得到了非常完整的解决.Hadoop 2.0内核由三个分支组成,分别是HDFS.MapReduce和YARN,而Hadoop生态系统中的其他系统,比如HBas