【Hadoop系列】HDFS

Hadoop的前世今生

什么是大数据

各行各业都会产生大量的数据,比如社交网站的意见观点,电商平台人们浏览网页停留的时间,交通运输每天产生的数据等等。这些数据大多不是结构化的,一般来说都是半结构化或者非结构化的

在以前,我们的处理能力达不到,所以很多数据要么没有存起来,要么没有利用起来。而现在数据越来越集中在云端的服务器上,并且计算能力已经今非昔比了,我们完全有能力对大数据进行存储和分析。

所以所谓的大数据指的就是,原有的计算能力无法处理的大批量的数据,而大数据技术研究的是如何快速有效的处理这些结构化、半结构化数据的技术。

处理大数据的架构

下图是传统的集中式架构

它的主要问题在于扩展性不强而且数据库将成为很大的瓶颈。

所以谷歌提出了

  • MapReduce算法
  • BigTable
  • GFS

合称“三剑客”。

那么相对于传统的架构,有什么样的变化呢?

  • 首先它可以使用大量的x86服务器,而不是使用性能强健的大型机来完成计算,也就是Scale-out的
  • 另外它使用软件方案来保证硬件故障容错

    我们知道x86服务器的稳定性不如小型机,存在一定的故障的可能,但是小型机实在太贵了。我们完全可以让x86服务器组成集群,然后使用上层软件来保障整体的硬件故障容错。

  • 简化并行分布式计算,不需要再控制节点的同步和数据的交换。

Hadoop模仿Google的实现方式,最终演变成一系列的开源项目。

总结一下:

大数据既是一个概念又是一门技术,它是以Hadoop和Spark为代表的大数据基础框架,可以实现数据分析、挖掘、预测。

Hadoop

上面说到Hadoop是一种分布式计算解决方案,含有若干组件,其中最著名的当属

  • HDFS分布式文件系统:存储海量数据

    存储技术是大数据的基础,因为对于大量的数据,我们希望能找的一种比较廉价的方式来保存我们的数据,那么分布式文件系统当属首选。

  • MapReduce编程模型:

    并行处理框架,实现任务分解和调度

所以Hadoop的优势在于:

  • 高扩展性,也就是可以通过增加节点来活动性能提升,比如说性能不够了,就怼新的服务器上去。
  • 低成本,可以基于便宜的x86服务器
  • 成熟的生态圈,里面有大量的工具集可以使用

下面分别介绍一下HDFS和MapReduce

HDFS

【大话存储II】学习笔记(15章),文件级集群系统中我们介绍了分布式集群的基本概念。

分布式文件系统可以等价于非共享存储集群文件系统,也就是说同一个文件系统下的文件是存放在不同的节点里面,而且Sharing-nothing

那么分布式文件系统应该解决

  • 统一的命名空间,也就是对外显现同一个文件目录。

    这样用户不用管数据是如何存放的,分布式文件系统已经帮它解决存放的问题了,用户用起来就像使用本地文件一样简单。

  • 缓存一致,因为数据都缓存在各自的节点,不存在不缓存不一致的情况。
  • 分布式锁,也就是多个连接并发访问的时候,如何控制文件的数据会出现不一致的情况。

若要理解HDFS,我们需要知道如下的基本概念。

基本概念

分布式设计

HDFS这样的架构,非常类似于【大话存储II】学习笔记(15章),块级集群存储系统中的XIV,当然XIV是提供块存储的,不过XIV也利用了文件系统的思想,对每个块像一个文件一样。

HDFS的基本存储和操作单位是数据块, 默认大小64MB,一般设置为128M。为什么要这么设计呢?因为一个文件会比较大,为了分布式存放,可以分成若干小块。那么最好就切成相同大小,比如说64MB。

而且为了保证数据块不丢失,对每个数据块会保存3副本,分布在两个机架的三个节点中。 其中两份在同一个机架,一份在另一个机架。

比如下图中两个A数据块放在机架1,另一份副本放到了机架2 。

角色

【大话存储II】学习笔记(15章),文件级集群系统我们介绍过,分布式文件系统有对称和非对称的两种。

对称集群中所有节点的地位相同,互相维护通信链接进行数据同步,也正因为如此,不适合扩展。

而HDFS采用的是非对称集群,所以有Master和Slave两种角色。

Master就是HDFS中的NameNode,它的作用是 存放元数据,管理文件系统的命名空间。也就是一个注册中心,其他的Slave都要到它这边注册。

Master和Slave组成集群以后,可以自服务,也可以对外提供服务。

它会记录两种信息:

  • 文件与数据块的映射关系
  • 数据块与服务器的对应关系,也就是每个块存放的节点的信息

Slave则是DataNode,它的主要作用就是存放数据块,是具体的执行者。

当块存储信息改变了以后,DataNode会向NameNode主动更新信息

另外,在这种主从架构里面,NameNode的地位很超然,非常的重要,一旦他挂了则整个系统就宕了。

所以从HDFS 2x就可以为NameNode配置HA了。

如下图所示,出现了一个Secondary NameNode。

二级NameNode定期同步元数据镜像文件和修改日志,当NameNode发生故障时,备胎转正。

HDFS的读与写

下面我们来看一下写流程。

  • 客户端向NameNode发出请求,表示自己要发送文件了,然后NameNode会返回现在空余存储的信息
  • 然后客户端将文件分块,
  • 接着,客户端将数据块1以及相应的元数据信息发给DataNode1
  • 然后开启流水线复制,将数据同步给另外的节点
  • 写完了以后,DataNode才返回更新信息,最后NameNode向客户端返回成功。

读文件

下图展示了HDFS的读流程

  • 首先客户端向NameNode发起读请求,将路径+文件名发过去
  • NameNode返回元数据,告诉客户端可以从哪些地方取
  • 然后由客户端自己向DataNode读取数据

HDFS的特点

了解了HDFS的架构以及读写流程以后,我们可以总结一下HDFS的特点。

本质上HDFS就是一个分布式文件系统,它

  • 通过三副本机制进行冗余,类似于的分布式的RAID10
  • 它的写比较的复杂,需要复制2份,还要同步各种信息,而且修改也比较麻烦,只能删除以后再写。所以比较适合于一次写入,多次读取的场景,现在的OLAP就比较契合
  • 因为每次写或者读都需要向NameNode发起请求,所以NameNode是整个系统的瓶颈,所以如果是小文件的话,NameNode压力非常大。

也就是说HDFS适合于批量读,这样吞吐量高,因为可以并发读嘛。

但是不支持多用户写相同的文件,因为没有加锁。

也就是不适合交互应用以及那些实时性要求高的地方。

原文地址:https://www.cnblogs.com/dy2903/p/8492304.html

时间: 2024-10-28 17:22:55

【Hadoop系列】HDFS的相关文章

Hadoop系列-HDFS基础

基本原理 HDFS(Hadoop Distributed File System)是Hadoop的一个基础的分布式文件系统,这个分布式的概念主要体现在两个地方: 数据分块存储在多台主机 数据块采取冗余存储的方式提高数据的可用性 针对于以上的分布式存储概念,HDFS采用了master/slave的主从结构来构建整个存储系统.之所以可以通过分散的机器组成一个整体式的系统,这其中机器之间的相互通讯必不可少.对于一个程序在不同机器上的通讯,主要是通过远程系统调用RPC(remote procedure

hadoop系列二:HDFS文件系统的命令及JAVA客户端API

转载请在页首明显处注明作者与出处 http://www.cnblogs.com/zhuxiaojie/p/6391518.html 一:说明 此为大数据系列的一些博文,有空的话会陆续更新,包含大数据的一些内容,如hadoop,spark,storm,机器学习等. 当前使用的hadoop版本为2.6.4 上一篇:hadoop系列一:hadoop集群安装 二:HDFS的shell命令 上一章说完了安装HADOOP集群部分,这一张讲HDFS. 其实基本上操作都是通过JAVA API来操作,所以这里的s

Hadoop系列之hdfs(分布式文件系统)安装配置

Hadoop系列之hdfs(分布式文件系统)安装配置环境介绍:     ip                        节点192.168.3.10      hdfs-master192.168.3.11      hdfs-slave1192.168.3.12      hdfs-slave21.在所有机器添加hosts192.168.3.10      hdfs-master192.168.3.11      hdfs-slave1192.168.3.12      hdfs-slav

Hadoop系列(二)Hadoop三大核心之HDFS基础

目录 hdfs基础 重要概念 Hadoop 特点 Hadoop HA 针对海量数据,核心问题始终是计算和存储.当数据集的大小超过一台独立物理计算机的存储能力时,就有必要对它进行分区并存储到多台机器上.跨机器存储的文件系统就被成为分布式文件系统.分布式系统架构于网络之上,势必引入网络编程的复杂性,如何实现容忍节点故障但不丢失数据,是HDFS的重要挑战. hdfs基础 Hadoop 自带HDFS分布式文件系统:Hadoop Distributed Filesystem.也简称DFS.主要用来解决海量

Hadoop之HDFS原理及文件上传下载源码分析(下)

上篇Hadoop之HDFS原理及文件上传下载源码分析(上)楼主主要介绍了hdfs原理及FileSystem的初始化源码解析, Client如何与NameNode建立RPC通信.本篇将继续介绍hdfs文件上传.下载源解析. 文件上传 先上文件上传的方法调用过程时序图: 其主要执行过程: FileSystem初始化,Client拿到NameNodeRpcServer代理对象,建立与NameNode的RPC通信(楼主上篇已经介绍过了) 调用FileSystem的create()方法,由于实现类为Dis

hadoop系列三:mapreduce的使用

转载请在页首明显处注明作者与出处 一:说明 此为大数据系列的一些博文,有空的话会陆续更新,包含大数据的一些内容,如hadoop,spark,storm,机器学习等. 当前使用的hadoop版本为2.6.4 上一篇:hadoop系列二:HDFS文件系统的命令及JAVA客户端API 二:wordcount字数统计功能

hadoop系列三:mapreduce的使用(一)

转载请在页首明显处注明作者与出处 http://www.cnblogs.com/zhuxiaojie/p/7224772.html 一:说明 此为大数据系列的一些博文,有空的话会陆续更新,包含大数据的一些内容,如hadoop,spark,storm,机器学习等. 当前使用的hadoop版本为2.6.4 上一篇:hadoop系列二:HDFS文件系统的命令及JAVA客户端API 在下面可以看到统计一本小说(斗破苍穹)哪些词语出现了最多. 本来mapreducer只想写一篇的,可是发现写一篇太长了,所

Hadoop系列之Hive(数据仓库)安装配置

Hadoop系列之Hive(数据仓库)安装配置1.在NameNode安装  cd /root/soft  tar zxvf apache-hive-0.13.1-bin.tar.gz   mv apache-hive-0.13.1-bin /usr/local/hadoop/hive2. 配置环境变量(每个节点都需要增加) 打开/etc/profile #添加以下内容: export HIVE_HOME=/usr/local/hadoop/hive export PATH=$HIVE_HOME/

Hadoop 系列(二)安装配置

Hadoop 系列(二)安装配置 Hadoop 官网:http://hadoop.apache.or 一.Hadoop 安装 1.1 Hadoop 依赖的组件 JDK :从 Oracle 官网下载,设置环境变量(JAVA_HOME.PATH 和 CLASSPATH). SSH(安全外壳标议) :推荐安装 Openssh. Hadoop 需要通过 SSH 来启动 Slave 列表中各台主机的守护进程,因此 SSH 也是必须安装的,即使是安装伪分布式版本(因为 Hadoop 并没有区分开集群式和伪分

Hadoop 系列(一)基本概念

Hadoop 系列(一)基本概念 一.Hadoop 简介 Hadoop 是一个由 Apache 基金会所开发的分布式系统基础架构,它可以使用户在不了解分布式底层细节的情況下开发分布式程序,充分利用集群的威力进行高速运算和存储. 从其定义就可以发现,它解決了两大问题:大数据存储.大数据分析.也就是 Hadoop 的两大核心:HDFS 和 MapReduce. HDFS(Hadoop Distributed File System) :是可扩展.容错.高性能的分布式文件系统,异步复制,一次写入多次读