hadoop2.5.2学习及实践笔记(三)—— HDFS概念及体系结构

注:文中涉及的文件路径或配置文件中属性名称是针对hadoop2.X系列,相对于之前版本,可能有改动。

附:

HDFS用户指南官方介绍:

http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-hdfs/HdfsUserGuide.html

HDFS体系结构官方介绍:

http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-hdfs/HdfsDesign.html

HDFS

Hadoop Distributed Filesystem(hadoop分布式文件系统)

假设及设计目标

  • 硬件故障很常见:HDFS集群可能包含成百上千台机器,每台机器都非常有可能发生故障。检测故障并快速、自动的恢复是HDFS体系的一个核心目标。
  • 流式的访问数据:HDFS是为批处理而设计,不是为了交互式用户使用。
  • 存储超大文件
  • 一次写入,多次读取是最高效的访问模式
  • 移动计算比移动数据更便宜:移动计算到接近于数据存储的地方,比移动数据到应用运行的地方更好。
  • 可移植性
  • 运行于商用硬件

不擅长的领域

  • 低时间延迟的数据访问
  • 存储大量的小文件
  • 多用户写入,任意修改文件

数据块

  

  存储于HDFS中的文件被分割为1个或多个块。

  

  hadoop中文件块默认为64M(hdfs-default.xml中dfs.blocksize属性定义),小于一个块大小的文件不会占用整个块的空间。

  HDFS中块如此之大,其目的是为了最小化寻址开销:如果块设置的足够大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需时间。

  但也不宜设置过大,map任务通常一次只处理一个块的数据,如果任务数太少,作业运行速度就比较慢。

  块非常适合用于数据备份进而提供数据容错能力和提高可用性。HDFS默认为块保存3个副本(hdfs-default.xml中dfs.replication属性定义)。

HDFS体系结构

  HDFS中运行着2类节点namenode、datanode。一个namenode、多个datanode,namenode和datanode以主从(master-slave)模式运行与HDFS集群中。

  namenode为管理节点,执行对文件系统命名空间的操作,如:打开、关闭和重命名文件或目录;并且决定文件块与datanode之间的映射关系。

  datanode为工作节点,存储并检索数据块,并定期向namenode发送它们存储的块的列表,接收来自namenode的文件块创建、删除和复本改进等命令。

  

namenode

  namenode管理文件系统的命名空间,维护着文件系统树及整棵树内所有的文件和目录的元数据,这些信息以两个文件形式保存在本地磁盘上:命名空间镜像和编辑日志。

  对于文件来说,其元数据信息可能包含复本级别、修改时间和访问时间、访问许可、块大小、组成一个文件的块等;

  对于目录来说,可能包含信息有修改时间、访问许可和配额元数据等。

  

  namenode运行时,文件系统的元数据是维护在内存中的(这是为什么运行namenode的机器需要较大的内存,也是为什么HDFS不适合存储大量小文件的原因:创建大量的小文件会急速的消耗掉namenode的内存)。

  而命名空间镜像是文件系统元数据的一个永久性检查点,将元数据序列化保存于本地磁盘。并不是每次操作都会更新该文件,因为fsimage是一个大型文件,频繁操作会使系统极为缓慢。

  对文件系统和其属性的修改会先记录在编辑日志中。

  进入namenode数据本地保存目录 {dfs.namenode.name.dir},{dfs.namenode.name.dir}/current 下,可以查看到如下类型的文件:edits文件为编辑日志,fsimage文件为命名空间镜像。

  

HDFS Federation

  因为namenode在内存中保存元数据,这意味着对于一个拥有大量文件的超大集群来说,内存将成为限制系统横向扩展的瓶颈。

  Hadoop2.x系列中引入了联邦HDFS,允许系统通过添加namenode实现扩展,每个namenode管理文件系统命名空间中的一部分。

  

  

  块池(block pool):属于某一命名空间(NS)的一组文件块。

  联邦环境下,每个namenode维护一个命名空间卷(namespace volume),包括命名空间的元数据和在该空间下的文件的所有数据块的块池。

  namenode之间是相互独立的,两两之间并不互相通信,一个失效也不会影响其他namenode。

  datanode向集群中所有namenode注册,为集群中的所有块池存储数据。

datanode

  datanode使用本地文件系统保存集群中的文件块信息,进入datanode数据本地保存目录{dfs.datanode.data.dir}

  {dfs.datanode.data.dir}/current/BP-xxx表示某一命名空间的块池,因未配置联邦HDFS,只有一个namenode,所以只有一个块池目录。

  {dfs.datanode.data.dir}/current/BP-xxx/current/finalized是存储数据的目录,包含两类文件:包含文件原始数据的HDFS块和块的元数据(.meta后缀的文件)。当目录中数据块的数量增加到一定规模时,datanode会创建一个新的子目录来存放新的数据块及其元数据信息,目的是设计一颗高扇出的目录树,即使文件系统中块的数量非常多,目录树的层数也不多,同时避免很多文件都放在同一个目录之中。

  

HDSF启动及安全模式

  从启动脚本/sbin/start-dfs.sh中可以看出,HDFS启动时,先启动namenode,后启动datanode,再启动secondarynamenode(介绍在下面)。

  

  

  namenode启动时首先将fsimage载入内存,并执行编辑日志中的各项操作。一旦在内存中成功建立文件系统元数据的映像,则创建一个新的fsimage文件和一个空的编辑日志。

  系统中数据块的位置不是由namenode维护的,而是以块列表的形式存储在datanode中。系统启动时由datanode向namenode发送最新的块列表信息,从而在namenode内存中构建一份块位置的映射信息。也就是说,namenode启动后的一段时间里,namenode可能还不了解或了解很少的数据块和datanode之间的映射信息,但这并不意味着系统中的文件块复本数不足(不足时会进行文件块的复制)。

  所以namenode启动时首先运行于安全模式,即对于客户端是只读的。安全模式下namenode不会向datanode发出任何块复制或删除指令,这时是没有必要的,namenode只需等待更多的datanode发送块列表信息即可,当接收到足够多的块位置信息,满足“最小复本条件”后,namenode会在30秒后退出安全模式。

  最小复本条件是指:整个文件系统中有99.9%(由dfs.namenode.safemode.threshold-pct指定)的块满足最小复本级别(默认值是1,由dfs.namenode.replication.min指定)。

  另外也可以手动进入或离开安全模式,命令:

[[email protected] sbin]$ hdfs dfsadmin -safemode
Usage: java DFSAdmin [-safemode enter | leave | get | wait]

secondarynamenode

  在业务繁忙的集群中,编辑日志可能会随时间推移变得很大,这会造成下次namenode启动时用时过长。

  SecondaryNameNode定期地合并fsimage和Edits日志文件,并保持Edits日志文件的大小在一个上限值内,由于它的内存需求与NameNode的一致,所以它通常运行在NameNode以外的一台机器上。Secondary NameNode以NameNode目录结构的相同方式存储合并后的命名空间镜像的副本,以备在namenode发生故障时使用。

  但secondarynamenode已过时,可以考虑使用Checkpoint Node或Backup Node替代之。

Checkpoint Node

  Checkpoint Node周期性的创建namespace的检查点,它从活动的namenode下载fsimage和edit日志,在本地合并,并把合并后新的fsimage上传到活动的namenode。

  Checkpoint Node以与NameNode相同的目录结构存储最新的Checkpoint。新的检查点时刻准备好在namenode需要时对其进行读取。

Backup Node

  Backup Node 不但提供了同checkpoint node一样的checkpoint功能,而且还通过同步活动namenode的状态,在内存中维护了一份文件系统命名空间的最新拷贝。                       Backup node从namenode接收文件系统Edits流并持久化到磁盘,同时还应用那些Edits到自己内存中的Namespace复本,如此就建立了Namespace的备份。

  Backup node不需要像checkpoint node或secondary namenode一样,为了创建检查点,需要从活动的namenode上下载fsimage和edits文件,因为在它的内存中已经有了命名空间的最新状态。Backup Node的Checkpoint处理效率很高,因为它只需要保存Namespace到本地fsimage并重设Edits文件。

时间: 2024-08-11 09:48:34

hadoop2.5.2学习及实践笔记(三)—— HDFS概念及体系结构的相关文章

hadoop2.5.2学习及实践笔记(四)—— namenode启动过程源码概览

对namenode启动时的相关操作及相关类有一个大体了解,后续深入研究时,再对本文进行补充 >实现类 HDFS启动脚本为$HADOOP_HOME/sbin/start-dfs.sh,查看start-dfs.sh可以看出,namenode是通过bin/hdfs命令来启动 $ vi start-dfs.sh # namenodes NAMENODES=$($HADOOP_PREFIX/bin/hdfs getconf -namenodes) echo "Starting namenodes o

hadoop2.5.2学习及实践笔记(五)—— HDFS shell命令行常见操作

附:HDFS shell guide文档地址 http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/FileSystemShell.html 启动HDFS后,输入hadoop fs命令,即可显示HDFS常用命令的用法 [[email protected] hadoop-2.5.2]$ hadoop fs Usage: hadoop fs [generic options] [-appendToFile <lo

hadoop2.5.2学习及实践笔记(六)—— Hadoop文件系统及其java接口

文件系统概述 org.apache.hadoop.fs.FileSystem是hadoop的抽象文件系统,为不同的数据访问提供了统一的接口,并提供了大量具体文件系统的实现,满足hadoop上各种数据访问需求,如以下几个具体实现(原表格见<hadoop权威指南>): 文件系统 URI方案 Java实现 (org.apache.hadoop) 定义 Local file fs.LocalFileSystem 支持有客户端校验和本地文件系统.带有校验和的本地系统文件在fs.RawLocalFileS

Kotlin学习与实践 (三)fun 函数

通过例子来学习如何高效的在Kotlin中定义使用函数. 1.命名参数.默认参数.顶层函数.扩展函数 * 展示几种创建集合类的方法和扩展的简单操作集合类的方法 fun createCollection() { val set = hashSetOf(1, 12, 26) println("hashSetOf -- > ${set.javaClass}") val list = arrayListOf(12, 24, 66) println("arrayListOf --

Hadoop学习笔记(三) ——HDFS

参考书籍:<Hadoop实战>第二版 第9章:HDFS详解 1. HDFS基本操作 @ 出现的bug信息 @[email protected] WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable @[email protected] WARN hdfs.DFSClient: DFSInpu

《JavaScript 高级程序设计》读书笔记三 基本概念

一   语法 区分大小写,驼峰式书写方式: 严格模式:"use strict": 二  数据类型 a. 基本数据类型: undefined 声明变量未初始化 null 空指针,可以释放内存 Boolean Boolean true false String 非空字符串 空字符串 Number 非零数值 0和NaN Object 任何对象 Null Undefined / undefined Number Number(),parseInt( ,基数),parseFloat(): NaN

Caliburn.Micro学习笔记(三)----事件聚合IEventAggregator和 Ihandle&lt;T&gt;

Caliburn.Micro学习笔记(三)----事件聚合IEventAggregator和 Ihandle<T> 今天 说一下Caliburn.Micro的IEventAggregator和IHandle<T>分成两篇去讲这一篇写一个简单的例子 看一它的的实现和源码 下一篇用它们做一个多语言的demo 这两个是事件的订阅和广播,很强大,但用的时候要小心发生不必要的冲突. 先看一下它的实现思想 在Caliburn.Micro里EventAggregator要以单例的形式出现这样可以

OpenCV for Python 学习笔记 三

给源图像增加边界 cv2.copyMakeBorder(src,top, bottom, left, right ,borderType,value) src:源图像 top,bottem,left,right: 分别表示四个方向上边界的长度 borderType: 边界的类型 有以下几种: BORDER_REFLICATE # 直接用边界的颜色填充, aaaaaa | abcdefg | gggg BORDER_REFLECT # 倒映,abcdefg | gfedcbamn | nmabcd

NFC学习笔记——三(在windows操作系统上安装libnfc)

本篇翻译文章: 这篇文章主要是说明如何在windows操作系统上安装.配置和使用libnfc. 一.基本信息 1.操作系统: Windows Vista Home Premium SP 2 2.硬件信息: System: Dell Inspiron 1720 Processor: Intel Core 2 Duo CPU T9300 @ 2.5GHz 2.5GHz System type: 32-bit Operating System 3.所需软件: 在windows操作系统上安装软件需要下列