HDSF主要节点解说(二)工作原理


HDFS(Hadoop Distributed File System )Hadoop分布式文件系统。

是依据google发表的论文翻版的。论文为GFS(Google File System)Google 文件系统(中文英文)。

HDFS有非常多特点

① 保存多个副本,且提供容错机制,副本丢失或宕机自己主动恢复。默认存3份。

② 执行在便宜的机器上。

③ 适合大数据的处理。

多大?多小?HDFS默认会将文件切割成block,64M为1个block。然后将block按键值对存储在HDFS上,并将键值对的映射存到内存中。假设小文件太多,那内存的负担会非常重。

如上图所看到的。HDFS也是依照Master和Slave的结构。分NameNode、SecondaryNameNode、DataNode这几个角色。

NameNode:是Master节点,是大领导。管理数据块映射。处理client的读写请求;配置副本策略;管理HDFS的名称空间;

SecondaryNameNode:是一个小弟。分担大哥namenode的工作量;是NameNode的冷备份;合并fsimage和fsedits然后再发给namenode。

DataNode:Slave节点,奴隶,干活的。负责存储client发来的数据块block;运行数据块的读写操作。

热备份:b是a的热备份。假设a坏掉。那么b立即执行取代a的工作。

冷备份:b是a的冷备份,假设a坏掉。那么b不能立即取代a工作。可是b上存储a的一些信息,降低a坏掉之后的损失。

fsimage:元数据镜像文件(文件系统的文件夹树。)

edits:元数据的操作日志(针对文件系统做的改动操作记录)

namenode内存中存储的是=fsimage+edits。

SecondaryNameNode负责定时默认1小时,从namenode上,获取fsimage和edits来进行合并。然后再发送给namenode。

降低namenode的工作量。



工作原理

写操作:

有一个文件FileA,100M大小。Client将FileA写入到HDFS上。

HDFS按默认配置。

HDFS分布在三个机架上Rack1,Rack2,Rack3。

a. Client将FileA按64M分块。分成两块。block1和Block2;

b. Client向nameNode发送写数据请求,如图蓝色虚线①------>。

c. NameNode节点,记录block信息。并返回可用的DataNode。如粉色虚线②--------->。

Block1: host2,host1,host3

Block2: host7,host8,host4

原理:

NameNode具有RackAware机架感知功能,这个能够配置。

若client为DataNode节点,那存储block时,规则为:副本1,同client的节点上。副本2。不同机架节点上;副本3。同第二个副本机架的还有一个节点上;其它副本随机挑选。

若client不为DataNode节点。那存储block时。规则为:副本1。随机选择一个节点上;副本2,不同副本1,机架上。副本3,同副本2同样的还有一个节点上。其它副本随机挑选。

d. client向DataNode发送block1;发送过程是以流式写入。

流式写入过程。

1>将64M的block1按64k的package划分;

2>然后将第一个package发送给host2;

3>host2接收完后。将第一个package发送给host1,同一时候client想host2发送第二个package;

4>host1接收完第一个package后,发送给host3,同一时候接收host2发来的第二个package。

5>以此类推。如图红线实线所看到的,直到将block1发送完成。

6>host2,host1,host3向NameNode,host2向Client发送通知,说“消息发送完了”。

如图粉红颜色实线所看到的。

7>client收到host2发来的消息后,向namenode发送消息。说我写完了。

这样就真完毕了。如图黄色粗实线

8>发送完block1后,再向host7,host8,host4发送block2,如图蓝色实线所看到的。

9>发送完block2后。host7,host8,host4向NameNode,host7向Client发送通知,如图浅绿色实线所看到的。

10>client向NameNode发送消息,说我写完了。如图黄色粗实线。。

这样就完成了。

分析,通过写过程,我们能够了解到:

写1T文件,我们须要3T的存储,3T的网络流量贷款。

在运行读或写的过程中。NameNode和DataNode通过HeartBeat进行保存通信,确定DataNode活着。假设发现DataNode死掉了,就将死掉的DataNode上的数据,放到其它节点去。

读取时,要读其它节点去。

挂掉一个节点,没关系。还有其它节点能够备份。甚至。挂掉某一个机架,也没关系;其它机架上,也有备份。

读操作:

读操作就简单一些了,如图所看到的,client要从datanode上,读取FileA。而FileA由block1和block2组成。

那么。读操作流程为:

a. client向namenode发送读请求。

b. namenode查看Metadata信息,返回fileA的block的位置。

block1:host2,host1,host3

block2:host7,host8,host4

c. block的位置是有先后顺序的,先读block1,再读block2。

并且block1去host2上读取;然后block2。去host7上读取;

上面样例中,client位于机架外。那么假设client位于机架内某个DataNode上,比如,client是host6。那么读取的时候,遵循的规律是:

优选读取本机架上的数据

时间: 2024-11-17 07:07:23

HDSF主要节点解说(二)工作原理的相关文章

HDSF主要节点讲解(二)工作原理

HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.是根据google发表的论文翻版的.论文为GFS(Google File System)Google 文件系统(中文,英文). HDFS有很多特点: ① 保存多个副本,且提供容错机制,副本丢失或宕机自动恢复.默认存3份. ② 运行在廉价的机器上. ③ 适合大数据的处理.多大?多小?HDFS默认会将文件分割成block,64M为1个block.然后将block按键值对存储在HDFS上,并将键值对的

Struts2(二)工作原理

一.概述 1.struts框架本身分为三个部分:核心控制器FilterDispatcher.业务控制器Action和用户实现的企业业务逻辑组件. 2.struts2工作的基本流程: 客户端初始化一个指向Servlet容器的请求 org.apache.struts2.dispatcher.ng.filter.StrutsPrepareAndExecuteFilter被调用,该过滤器询问ActionMaper这个请求是否需要调用某个Action 如果ActionMapper决定需要调用某个Actio

路由器开发(二)—— 路由器工作原理

当信息需要在两个网络之间传输时,常用路由器这种互连设备来负责数据的传输.路由器的主要工作是:路径的决定和数据包的转发(从路由器一个接口输入,然后选择合适接口输出):维护路由表. 路由器工作的方式非常简洁明了,从接收报文中抽取目的地址,并确定地址中的网络号,查找路由选择表以获得与目标网络相匹配的表项.在路由选择表中的匹配表项中包括下一站.目的地.输出接口和其它与路由有关的参数.报文被封装在适合输出接口的帧中,并由输出接口输出. 下面具体分析路由器两种工作的工作原理. 一.路由的概念  路由是将对象

磁盘工作原理、文件系统及i节点、块存储、文件存储、对象存储、DAS、NAS、还有SAN

(一)磁盘工作原理 一般硬盘正面贴有产品标签,主要包括厂家信息和产品信息,如商标.型号.序列号.生产日期.容量.参数和主从设置方法等.这些信息是正确使用硬盘的基本依据,下面将逐步介绍它们的含义. 硬盘主要由盘体.控制电路板和接口部件等组成,如图1-1所示.盘体是一个密封的腔体.硬盘的内部结构通常是指盘体的内部结构:控制电路板上主要有 硬盘BIOS.硬盘缓存(即CACHE)和主控制芯片等单元,如图1-2所示:硬盘接口包括电源插座.数据接口和主.从跳线,如图1-3所示. 图1-1 硬盘的外观 图1-

MongoDB复制集的工作原理介绍(二)

复制集工作原理 1)数据复制原理 开启复制集后,主节点会在 local 库下生成一个集合叫 oplog.rs,这是一个有限集合,也就是大小是固定的.其中记录的是整个mongod实例一段时间内数据库的所有变更(插入/更新/删除)操作,当空间用完时新记录自动覆盖最老的记录. 复制集中的从节点就是通过读取主节点上面的 oplog 来实现数据同步的,MongoDB的oplog(操作日志)是一种特殊的封顶集合,滚动覆盖写入,固定大小.另外oplog的滚动覆盖写入方式有两种:一种是达到设定大小就开始覆盖写入

分布式的几件小事(二)dubbo的工作原理

1.dubbo的工作原理 ①整体设计 图例说明: 图中左边淡蓝背景的为服务消费方使用的接口,右边淡绿色背景的为服务提供方使用的接口,位于中轴线上的为双方都用到的接口. 图中从下至上分为十层,各层均为单向依赖,右边的黑色箭头代表层之间的依赖关系,每一层都可以剥离上层被复用,其中,Service 和 Config 层为 API,其它各层均为 SPI. 图中绿色小块的为扩展接口,蓝色小块为实现类,图中只显示用于关联各层的实现类. 图中蓝色虚线为初始化过程,即启动时组装链,红色实线为方法调用过程,即运行

【SpringMVC架构】SpringMVC入门实例,解析工作原理(二)

上篇博文,我们简单的介绍了什么是SpringMVC,这篇博文,我们搭建一个简单SpringMVC的环境,使用非注解形式实现一个HelloWorld实例,从简单入手,逐步深入. 环境准备 我们需要有基本的java环境,下面只是简单的罗列,不再详细的介绍. jdk1.6以上 eclipse或者myEclipse tomcat6以上 我们使用SpringMVC的版本是Spring3.2.0,下图是最基本的jar包: 在Spring的官方API文档中,给出了所有jar包作用的概述,现列举常用的包以及相关

Android 基于Netty的消息推送方案之概念和工作原理(二)

上一篇文章中我讲述了关于消息推送的方案以及一个基于Netty实现的一个简单的Hello World.为了更好的理解Hello World中的代码,今天我来解说一下关于Netty中一些概念和工作原理的内容,假设你认为本篇文章有些枯燥.请先去阅读<Android 基于Netty的消息推送方案之Hello World(一)> ChannelEvent Netty是基于事件驱动的,就是我们上文提到的.发生什么事.就通知"有关部门". 所以.不难理解.我们自己的业务代码中,一定有跟这

JAVA之旅(二十五)——文件复制,字符流的缓冲区,BufferedWriter,BufferedReader,通过缓冲区复制文件,readLine工作原理,自定义readLine

JAVA之旅(二十五)--文件复制,字符流的缓冲区,BufferedWriter,BufferedReader,通过缓冲区复制文件,readLine工作原理,自定义readLine 我们继续IO上个篇幅讲 一.文本复制 读写都说了,我们来看下其他的操作,我们首先来看复制 复制原理:其实就是将C盘下的文件数据存储到D盘的一个文件中 实现的步骤: 1.在D盘创建一个文件,用于存储文件中的数据 2.定义读取流和文件关联 3.通过不断的读写完成数据的存储 关闭资源 package com.lgl.hel