Hadoop入门之hdfs

    大数据技术开篇之Hadoop入门【hdfs】

    学习都是从了解到熟悉的过程,而学习一项新的技术的时候都是从这个技术是什么?可以干什么?怎么用?如何优化?这几点开始。今天这篇文章分为两个部分。一、hadoop概述  二、hadoop核心技术之一的hdfs的讲解。

【hadoop概述】

一、hadoop是什么?

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。

  简单概况就是hadoop是一个分布式系统的基础架构,通过分布式来进行高速运算和存储。

二、用来干什么?

  主要用来解决海量数据存储和海量数据运算的问题

三、当前版本

   Apach 版本:主要用于自己学习研究方面,免费开源版本

   Cloudera:收费版本,企业版本。目前公司商用化最多的版本。

     Hortonworks:商业版本,这个版本的优势在于参考文档相对详尽,学习起来比较方便

四、hadoop组成

    commons:辅助工具
    hdfs:一个分布式高吞吐量,高可靠的分布式文件系统
    mapreduce 一个分布式离线计算框架
    yarn:作业调度和资源管理的框架。

五、集群模式

单节点模式,伪集群,完整集群。三个模式

                        HDFS 学习

一、hdfs是什么?

    hdfs一个分布式高吞吐量,高可靠的分布式文件系统。

二、hdfs优缺点:

 优点:
    【1】高容错性,数据自动保存多个副本,一个副本丢失后可以自动恢复
    【2】适合大数据的处理
    数据可以达到gb,Tb,pb级别,文件处理可以达到百万以上的规模
    【3】可以构建在廉价的机器上面,通过多副本来实现可靠性

  缺点:
    【1】不适合低延时数据访问,比如毫秒级别做不到
    【2】无法高效对大量小文件进行存储
    【3】不支持文件的随机修改,仅支持文件的追加

三、hdfs的组成:

  Client:客户端
       【1】文件切分。文件上传时将文件切成一个个block块
    【2】与NameNode交互,获取文件的位置信息
    【3】与DataNode交互,读取或写入数据
    【4】client提供一些命令来管理Hdfs,比如启动或者关闭
    【5】client可以通过命令来访问Hdfs
  NameNode就是Master,它是一个主管、管理者
    【1】管理数据块的原信息
    【2】配置副本策略
    【3】处理客户端请求
  DateNode
    【1】存储实际的数据块
    【2】执行数据块的读写操作
  econdaryNameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务
    【1】辅助NameNode,分担其工作量
    【2】定期合并Fsimage和Edits,并推送给NameNode;
    【3】在紧急情况下,可辅助恢复NameNode。

四、hdfs文件写入流程

                                                        

    

    (1) 客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。

    (2) NameNode返回是否可以上传。

    (3) 客户端请求第一个 block上传到哪几个datanode服务器上。

    (4) NameNode返回3个datanode节点,分别为dn1、dn2、dn3。

    (5) 客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。

    (6) dn1、dn2、dn3逐级应答客户端。

    (7) 客户端开始往dn1上传第一个block(先从磁盘读取数据放到一个本地内存缓存),以packet为单位,dn1收到一个packet就会传给dn2,dn2传给dn3;

    (8) 当一个block传输完成之后,客户端再次请求NameNode上传第二个block的服务器。(重复执行3-7步)。

五、hdfs 读文件流程

             

    (1) 客户端通过Distributed FileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。

    (2) 挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。

    (3) DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以packet为单位来做校验)。

    (4) 客户端以packet为单位接收,先在本地缓存,然后写入目标文件。

六、NN与2NN的工作机制

        

    

    (1) 第一阶段:NameNode启动

      a) 第一次启动NameNode格式化后,创建fsimage和edits文件。如果不是第一次启动,直接加载编辑日志和镜像文件到内存。

      b) 客户端对元数据进行增删改的请求。

      c) NameNode记录操作日志,更新滚动日志。

      d) NameNode在内存中对数据进行增删改查。

    (2) 第二阶段:Secondary NameNode工作

      a) Secondary NameNode询问NameNode是否需要checkpoint。直接带回NameNode是否检查结果。

      b) Secondary NameNode请求执行checkpoint。

      c) NameNode滚动正在写的edits日志。

      d) 将滚动前的编辑日志和镜像文件拷贝到Secondary NameNode。

      e) Secondary NameNode加载编辑日志和镜像文件到内存,并合并。

      f) 生成新的镜像文件fsimage.chkpoint。

      g) 拷贝fsimage.chkpoint到NameNode。

      h) NameNode将fsimage.chkpoint重新命名成fsimage。

NN和2NN工作机制详解:

fsimage:namenode内存中元数据序列化后形成的文件。

edits:记录客户端更新元数据信息的每一步操作(可通过Edits运算出元数据)。

namenode启动时,先滚动edits并生成一个空的edits.inprogress,然后加载edits(归档后的)和fsimage(最新的)到内存中,此时namenode内存就持有最新的元数据信息。client开始对namenode发送元数据的增删改查的请求,这些请求的操作首先会被记录在edits.inprogress中(查询元数据的操作不会被记录在edits中,因为查询操作不会更改元数据信息),如果此时namenode挂掉,重启后会从edits中读取元数据的信息。然后,namenode会在内存中执行元数据的增删改查的操作。

由于edits中记录的操作会越来越多,edits文件会越来越大,导致namenode在启动加载edits时会很慢,所以需要对edits和fsimage进行合并(所谓合并,就是将edits和fsimage加载到内存中,照着edits中的操作一步步执行,最终形成新的fsimage)。Secondarynamenode:帮助namenode进行edits和fsimage的合并工作。

secondarynamenode首先会询问namenode是否需要checkpoint(触发checkpoint需要满足两个条件中的任意一个,定时时间到和edits中数据写满了)。直接带回namenode是否检查结果。secondarynamenode执行checkpoint操作,首先会让namenode滚动edits并生成一个空的edits.inprogress,滚动edits的目的是给edits打个标记,以后所有新的操作都写入edits.inprogress,其他未合并的edits和fsimage会拷贝到secondarynamenode的本地,然后将拷贝的edits和fsimage加载到内存中进行合并,生成fsimage.chkpoint,然后将fsimage.chkpoint拷贝给namenode,重命名为fsimage后替换掉原来的fsimage。namenode在启动时就只需要加载之前未合并的edits和fsimage即可,因为合并过的edits中的元数据信息已经被记录在fsimage中。

六、DataName工作机制

            

    (1) 一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。

    (2) DataNode启动后向NameNode注册,通过后,周期性(1小时)的向NameNode上报所有的块信息。

    (3) 心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。

今天的hdfs的分享就到这里了,下次会分享MapReduce和Yarn的知识。每天进步一点点,大家一起加油。

 

原文地址:https://www.cnblogs.com/zhangzhiboBIgData/p/12655540.html

时间: 2024-11-07 08:02:58

Hadoop入门之hdfs的相关文章

hadoop入门之HDFS常用文件操作命令及注意事项

HDFS 文件操作命令 HDFS 文件系统提供了相当多的shell 操作命令,大大方便了程序员和系统管理人员查看.修改HDFS 上的文件.进一步,HDFS的操作命令和Unix/Linux 的命令名称和格式相当一致,因而学习HDFS 命令的成本也大为缩小. HDFS 的基本命令格式如下: bin/hadoop dfs–cmd <args> 这里cmd 就是具体的命令,记住cmd 前面的短线"–"千万不要忽略.     1.ls hadoop fs -ls /     列出hd

Hadoop入门一:Hadoop简介

  从数据爆炸开始...  1.1 第三次工业革命 第一次:18世纪60年代,手工工厂向机器大生产过渡,以蒸汽机的发明和使用为标志. 第二次:19世纪70年代,各种新技术新发明不断被应用于工业生产,以电力的发明使用为标志. 第三次:20世界四五十年代末,以高新技术为代表的新科学技术革命,以原子能.航天技术和电子计算机 为标志. 1.2 信息技术发展带来的数据爆炸 纽约证券所交易    每天 1TB FaceBook一千亿照片  1PB 腾讯 每天 300TB 淘宝 每天 pv20亿 数据量 50

Hadoop入门学习笔记---part4

紧接着<Hadoop入门学习笔记---part3>中的继续了解如何用java在程序中操作HDFS. 众所周知,对文件的操作无非是创建,查看,下载,删除.下面我们就开始应用java程序进行操作,前提是按照<Hadoop入门学习笔记---part2>中的已经在虚拟机中搭建好了Hadoop伪分布环境:并且确定现在linux操作系统中hadoop的几个进程已经完全启动了. 好了,废话不多说!实际的例子走起. 在myeclipse中新建一个java工程: 在项目工程中新建一个lib包用于存放

Hadoop入门学习笔记---part1

随着毕业设计的进行,大学四年正式进入尾声.任你玩四年的大学的最后一次作业最后在激烈的选题中尘埃落定.无论选择了怎样的选题,无论最后的结果是怎样的,对于大学里面的这最后一份作业,也希望自己能够尽心尽力,好好做.正是因为选题和hadoop有关,现在正式开始学习hadoop.将笔记整理于此,希望与志同道合的朋友共同交流. 作者:itRed 邮箱:[email protected] 个人博客链接:http://www.cnblogs.com/itred 好了,废话不多说.进入正题!开始hadoop的学习

Hadoop入门进阶步步高(六)-Hadoop1.x与Hadoop2的区别

六.Hadoop1.x与Hadoop2的区别 1.变更介绍 Hadoop2相比较于Hadoop1.x来说,HDFS的架构与MapReduce的都有较大的变化,且速度上和可用性上都有了很大的提高,Hadoop2中有两个重要的变更: l HDFS的NameNodes可以以集群的方式布署,增强了NameNodes的水平扩展能力和可用性: l MapReduce将JobTracker中的资源管理及任务生命周期管理(包括定时触发及监控),拆分成两个独立的组件,并更名为YARN(Yet Another Re

Hadoop入门学习笔记---part3

2015年元旦,好好学习,天天向上.良好的开端是成功的一半,任何学习都不能中断,只有坚持才会出结果.继续学习Hadoop.冰冻三尺,非一日之寒! 经过Hadoop的伪分布集群环境的搭建,基本对Hadoop有了一个基础的了解.但是还是有一些理论性的东西需要重复理解,这样才能彻底的记住它们.个人认为重复是记忆之母.精简一下: NameNode:管理集群,并且记录DataNode文件信息: SecondaryNameNode:可以做冷备份,对一定范围内的数据作快照性备份: DataNode:存储数据:

Hadoop入门进阶步步高(一)-环境准备

前言 Hadoop从存储上来说,是类似于冗余磁盘阵列(RAID)的存储方式,将数据分散存储并提供以提供吞吐量,它的存储系统就是HDFS(Hadoop Distuibute Fils System):从计算上来说,它通过MapReduce模型,将大数据的计算分发到多台计算机上完成,再将结果合并,减少计算的时间. Hadoop适合于: 1.超大数据的计算: 2.一次写入.多次读取的模式: 3.可以跑在普通的硬件上. Hadoop不适合: 1.低延迟的数据访问,它是为高数据吞吐量应用优化的: 2.大量

Hadoop入门进阶步步高(二)-目录介绍

二.Hadoop目录结构 这里重点介绍几个目录bin.conf及lib目录. 1.$HADOOP_HOME/bin目录 文件名称 说明 hadoop 用于执行hadoop脚本命令,被hadoop-daemon.sh调用执行,也可以单独执行,一切命令的核心 hadoop-config.sh Hadoop的配置文件 hadoop-daemon.sh 通过执行hadoop命令来启动/停止一个守护进程(daemon). 该命令会被bin目录下面所有以"start"或"stop&quo

Hadoop入门进阶步步高(三)-配置Hadoop

三.配置Hadoop 1.设置$HADOOP_HOME/conf/hadoop-env.sh 这个文件中设置的是Hadoop运行时需要的环境变量,在1.2.1版中共有19个环境变量,如下: 变量名称 默认值 说明 JAVA_HOME 设置JDK的路径,这个必须设置,否则Hadoop无法启动,值如: /usr/local/jdk1.6.0_33 HADOOP_CLASSPATH 空 这个用以设置用户的类路径,也可以在执行计算之前设置 HADOOP_HEAPSIZE 1000m 设置Hadoop堆的