Hadoop - YARN NodeManager 剖析

一 概述

NodeManager是执行在单个节点上的代理,它管理Hadoop集群中单个计算节点,功能包含与ResourceManager保持通信,管理Container的生命周期、监控每一个Container的资源使用(内存、CPU等)情况、追踪节点健康状况、管理日志和不同应用程序用到的附属服务等。

NodeManager是YARN中单个节点的代理,它须要与应用程序的ApplicationMaster和集群管理者ResourceManager交互;它从ApplicationMaster上接收有关Container的命令并执行(比方启动、停止Contaner);向ResourceManager汇报各个Container执行状态和节点健康状况,并领取有关Container的命令(比方清理Container)。

二 基本职能

两个基本的协议 ResourceTrackerProtocol协议 和  ContainerManagementProtocol协议

2.1 ResourceTrackerProtocol协议

a.registerNodeManager

注冊自己,须要告诉RM自己的host ip、port号、对外的tracking url以及自己拥有的资源总量(当前支持内存和虚拟内存两种资源)。

b.nodeHearbeat

NodeManager启动后,通过RPC协议向ResourceManager注冊、汇报结点健康状况和Container执行状态,并领取ResourceManager下达的命令,包含又一次初始化、清理Container占用资源等。

2.2 ContainerManagementProtocol协议

应用程序的ApplicationMaster通过RPC协议向NodeManager发起针对Container的相关操作,包含启动Container、杀死Container、获取Container运行状态

ApplicationMaster能够将Container相关操作通过RPC的方式第一时间告诉NodeManager。

主要提供了三个RPC函数:

1.startContainer 有一个參数封装了Container启动所须要的本地资源、环境变量、运行命令、Token等信息。

2.stopContainer AM通过该RPC要求NodeManager停止(杀死)一个Container。该函数有一个StopContanerRequest类型的參数,用于指定待杀死的Container ID.

3.getContainerStatus:ApplicationMaster通过该RPC获取一个Container的执行状态。该函数參数类型为GetContaineStatusRequest,封装了目标Container 的ID。

注:1.NodeManager与ApplicationMaster之间採用了"push模型",ApplicationMaster能够将Container相关操作(启动、查询、停止)第一时间告诉NodeManager。相比于"push 模型"。能够大大减少时间延迟。

2.ApplicationMaster能够通过三种方式获取Container的运行状态

a.通过与RM的心跳信息     b.Container汇报给AM  c.AM向NM进行查询

三  NodeManger内部架构

NodeManager 内部组件

介绍一下NodeManager内部的组织结构和基本的模块

3.1 NodeStatusUpdater

NodeStatusUpdater是NodeManager与ResourceManager通信的唯一通道。当NodeManager启动时,该组件向ResourceManager注冊。并汇报节点上可用的资源(该值在执行过程中不再汇报);之后,该组件周期性与ResourceManager通信,汇报各个Container的状态更新。包含节点上正执行的Container、已完毕的Container等信息。同一时候ResouceManager会返回待清理Container列表、待清理应用程序列表、诊断信息、各种Token等信息。

3.2 ContainerManager

ContainerManager是NodeManager中最新核心的组件之中的一个。它由多个子组件构成,每一个子组件负责一部分功能,它们协同工作组件用来管理执行在该节点上的全部Container,其主要包括的组件例如以下:

RPCServer  实现了ContainerManagementProtocol协议,是AM和NM通信的唯一通道。

ContainerManager从各个ApplicationMaster上接受RPC请求以启动新的Container或者停止正在执行的Contaier。

ResourceLocalizationService 负责Container所需资源的本地化。可以依照描写叙述从HDFS上下载Container所需的文件资源,并尽量将他们分摊到各个磁盘上以防止出现訪问热点。此外,它会为下载的文件加入訪问控制权限,并为之施加合适的磁盘空间使用份额。

ContainerLaucher 维护了一个线程池以并行完毕Container相关操作。比方杀死或启动Container。 启动请求由AM发起。杀死请求有AM或者RM发起。

AuxServices  NodeManager同意用户通过配置附属服务的方式扩展自己的功能,这使得每一个节点能够定制一些特定框架须要的服务。

附属服务须要在NM启动前配置好,并由NM统一启动和关闭。

典型的应用是MapReduce框架中用到的Shuffle HTTP Server,其通过封装成一个附属服务由各个NodeManager启动。

ContainersMonitor 负责监控Container的资源使用量。为了实现资源的隔离和公平共享,RM 为每一个Container分配一定量的资源,而ContainerMonitor周期性的探測它在执行过程中的资源利用量。一旦发现Container超过它同意使用的份额上限,就向它发送信号将其杀死。这能够避免资源密集型的Container影响到同节点上的其它正在执行的Container。

注:YARN仅仅有对内存资源是通过ContainerMonitor监控的方式加以限制的。对于CPU资源,则採用轻量级资源隔离方案Cgroups.

3.3 NodeHealthCheckservice

结点健康检查。NodeHealthCheckSevice通过周期性地执行一个自己定义的脚步和向磁盘写文件检查节点健康状况,并通过NodeStatusUpdater传递给ResouceManager.而ResouceManager则依据每一个NodeManager的健康状况适当调整分配的任务数目。一旦RM发现一个节点处于不健康的状态,则会将其增加黑名单,此后不再为它分配任务,直到再次转为健康状态。须要注意的是。节点被增加黑名单后,正在执行的Container仍会正常执行,不会被杀死。

第一种方式通过管理员自己定义的Shell脚步。

(NM上专门有一个周期性任务运行该脚步,一旦该脚步输出以"ERROR"开头的字符串,则觉得结点处于不健康状态)

另外一种是推断磁盘好坏。(NM上专门有一个周期性任务检測磁盘的好坏,假设坏磁盘数据达到一定的比例。则觉得结点处于不健康的状态)。

3.4  DeleteService

NM 将文件的删除功能服务化,即提供一个专门的文件删除服务异步删除失效文件,这样能够避免同步删除文件带来的性能开销。

3.5  Security

安全模块是NM中的一个重要模块。它由两部分组成。各自是ApplicationACLsManager 确保訪问NM的用户是合法的。ContainerTokenSecretManger:确保用户请求的资源是被RM授权过的。

3.6  WebServer

通过Web界面向用户展示该节点上全部应用程序执行状态、Container列表、节点健康状况和Container产生的日志等信息。

三 分布式缓存

类似于MRv1中的Distrubuted Cache。其主要作用就是将用户应用程序运行时所需的外部文件资源自己主动透明的下载缓存到各个节点,从而省去了用户手动部署这些文件麻烦。

YARN分布式缓存工作流程例如以下:

1.client将应用程序所需的文件资源(外部字典、JAR包、二进制文件)提交到HDFS上。

2.client将应用程序提交到RM上。

3.RM将与某个NM进行通信,启动应用程序AM,NM收到命令后,首先从HDFS上下载文件(缓存),然后启动AM。

4.AM与RM通信,以请求和获取计算资源。

5.AM收到新分配到的计算资源后,与相应的NM通信,以启动任务。

6.假设应用程序第一次在该节点上启动任务,NM首先从HDFS上下载文件缓存到本地,然后启动任务。

7.NM兴许收到启动任务请求后,假设文件已在本地缓存。则直接运行任务,否则等待文件缓存完毕后再启动。

各个节点上的缓存文件由相应的NM管理和维护。

注:在Hadoop中,分布式缓存并非将文件缓存到集群中各个节点的内存中,而是将文件缓存到各个节点的磁盘上,以便运行任务时直接从磁盘上读取文件。

资源的可见性分为三类:

PUBLIC: 节点上全部用户共享该资源

PRIVATE: 节点上的同一用户的全部应用程序共享该资源

APPLICATION:节点上同一应用程序的全部Container共享,默认情况下,MapReduce作业的split元信息文件job.splimetainfo和属性文件job.xml的可见性是Application的。

上面不同可见性是通过设置特殊文件夹的位置和文件夹权限实现的。

NM的资源分类

ARCHIVE:归档文件

FIFE:普通文件

PATTERN:以上两种文件的混合体,有多种类型文件存在。

注:1.YARN是通过比較resource、type、timestamp和pattern四个字段是否同样来推断两个资源请求是否同样的。假设一个已经被缓存到各个节点上的文件被用户改动了。则下次使用时会自己主动触发一次缓存更新。以又一次从HDFS上下载文件。

2.分布式缓存完毕的主要功能是文件下载,涉及大量的磁盘读写。因此整个过程採用了异步并发模型加快文件下载速度,以避免同步模型带来的性能开销。

四 文件夹结构

NodeManager上的文件夹可分为两种:数据文件夹和日志文件夹,当中数据文件夹用于存放运行Container所需的数据(比方可运行程序或JAR包、配置文件等)和运行过程中产生的暂时数据。

NM在每一个磁盘上为该作业创建同样的文件夹结构,且採用轮询的调度方式将文件夹(磁盘)分配给不同的Container的不同模块以避免干扰。

考虑到一个应用程序的不同Container之间存在依赖,为了避免提前清除已经完毕的Container输出的中间数据破坏应用程序的设计逻辑。YARN统一规定,仅仅有当应用程序执行结束后。才统一清楚Container产生的中间数据。

日志文件夹用于存放Container执行时输出的日志。NM提供了定期清除和日志聚集转存两种日志清理机制,默认情况下,採用的是定期清除机制,该任务由LogHandler组件完毕。

五 状态机管理

NodeManager维护了三类状态机。各自是:Application、Container和LocalizedResource,它们均直接或者间接參与维护一个应用程序的生命周期。

当NodeManager收到来自某个应用程序第一次Container启动命令时。会创建一个Application状态机跟踪该应用程序在该结点上的生命周期,而每一个Container的执行过程相同由一个状态机维护。

此外Application所需的资源(比方文本文件、JAR包、归档文件等)须要从HDFS上下载,每一个资源的下载过程均由一个状态机LocalizedResouce维护和跟踪。

NM上Application维护的信息是ResourceManager端Application信息的子集。这有利于对一个节点上的同一个Application的全部Container进行统一管理(比方记录每个Application执行在该节点上的Container列表。杀死一个Application的全部Container等)。它实际的实现类是ApplicationImpl,该类维护了一个Application状态机,记录了Application可能存在的各个状态以及导致状态间转换的事件。须要注意的是NM上的Application生命周期与ResourceManager上Application的生命周期是一致的。

LocalizedResource是NodeManager中维护一种“资源”(资源文件、JAR包、归档文件等外部文件资源)生命周期的数据结构。它维护了一个状态。记录了"资源"可能存在的各种状态以及导致状态间转换的事件。

六 Container 生命周期剖

Container启动过程主要经历三个阶段:资源本地化、启动并执行Container和资源清理。

Container的启动命令是由各个ApplicationMaster通过RPC函数ContainerManagementProtocol#startContainer向NodeManager发起的,NodeManager中的ContainerManager组件负责接受并处理该请求。

6.1 资源本地化

资源本地化指的是准备Containers执行所需的环境,主要是分布式缓存机制完毕的工作。功能包含初始化各种服务组件、创建工作文件夹、从HDFS下载执行所需的各种资源(比方文本文件、JAR包、可执行文件)等。资源本地化主要是由两部分组成,各自是应用程序初始化和Container本地化。

当中,应用程序初始化的工作是初始化各类必需的服务组件(比方日志记录组件LogHandler、资源状态追踪组件LocalResouceTrackerImpl),供兴许Container使用,通常由Application的第一个Container完毕。Container本地化则是创建工作文件夹,从HDFS上下载各类文件资源。

注:1. YARN资源分为PUBLIC PRIVATE 和 APPLICATION三类。不同级别的资源对不同用户和应用程序的訪问权限不同,这也直接导致资源的本地化方式不同。它们的本地化由ResouceLocalizationSevice服务完毕,但内部由不同的线程负责机载。

2.两种类型的Container: 一种是该Container是ApplicationMaster发送到给节点的第一个Container。还有一种则不是第一个Container.

资源本地化过程可概括为:在NodeManager上。同一个应用程序的全部ContainerImpl异步并发向资源下载服务ResourceLocalizationService发送待下载的资源。而ResourceLocationService下载完一类资源后,将通知依赖该资源的全部Container。

一旦一个Container依赖的资源已经全部下载完毕,则该Container进入执行阶段。

6.2  Container启动

由ContainersLauncher服务完毕。该服务将进一步调用插拔式组件ContainerExecutor,YARN提供了两种ContainerExecutor,一种是DefaultContainerExecutor一种是LinuxContainerExecutor.

主要过程可概括为:将待执行的Container所需的环境变量和执行命令写到Shell脚本launch_container.sh中,并将启动该脚本的命令写入default_container_executor.sh中。然后通过执行该脚步启动Container.

6.3  资源清理

是资源本地化的逆过程。它负责清理各种资源,它们均由ResouceLocalizatonService服务完毕。

Container执行完毕后(可能成功或者失败),NM需回收它占用的资源,这些资源主要是Container执行时使用的暂时文件。它们的来源主要是ResourceLocalizationService和ContainerExecutor两个服务/组件,当中。ResourceLocalizationService将数据HDFS文件下载到本地。ContainerExecutor为Container创建私有工作文件夹。并保存一些暂时文件(比方Container进程pid文件).因此,Container资源清理过程主要是通知这两个组件删除暂时文件夹。

注:因为每一个NM上仅仅负责处理一个应用程序的部分任务,因此它无法知道一个应用程序何时完毕,该信息仅仅有控制着所有消息的RM知道,因此当一个应用程序执行结束时。须要由它广播给各个NM。再进一步由NM清理应用程序占用的所有资源。包含产生的中间数据。

七 资源隔离

资源隔离是指为不同的应用任务提供可独立使用的计算资源以避免它们之间互相干扰。当前存在非常多种资源隔离技术,比方硬件虚拟化、虚拟机、Cgroups、Linux Container等。YARN对内存资源和CPU资源的管理採用的不同的资源隔离方案。

对于内存资源。它是一种限制性资源,它的量的大小直接决定的应用程序的死活。YARN採用了进程监控的方案控制内存资源使用量,一旦发现它超过约定的资源量。就将其杀死。

还有一种可选的方案则是基于轻量级资源隔离技术Cgroups,Cgroups是Linux内核提供的弹性资源隔离机制,能够严格限制内存的使用上限,一旦进程使用资源量超过事先定义的上限值,则可将其杀死。

对于CPU资源,它是一种弹性资源。它的量的大小不会直接影响应用程序的死活,因此採用了Cgroups。

Cgroups(Control Groups)是Linux 内核提供的一种能够限制、记录、隔离进程组所使用的物理资源(如CPU、内存、IO等)的机制。最初由Googleproject师提出,后来被整合进Linux内核。

Cgroups最初的目的是为资源管理提供一个统一的框架。既整合现有的cpuset等子系统,也为未来新的子系统提供接口。以使得Cgoups适合多种应用场景,从单个进程的资源控制到实现操作系统层次的虚拟化的应用场景均支持。

总结起来,Cgroups提供了已下功能:

1.限制进程组使用的资源量。

2.进程组的优先级控制,比方,能够使用CPU子系统为某个进程组分配特定CPU share.

3.对进程组使用的资源量进行记账  4.进程控制。比方将某个进程组挂起和恢复。

YARN使用了Cgroups子系统中的CPU和Memory子系统。CPU子系统用于控制Cgroups中全部的进程能够使用的CPU时间片。Memory子系统可用于限定一个进程的内存使用上限,一旦超过该限制,将觉得它为OOM,会将其杀死。

对于内存资源隔离,YARN採用了与MRv1这样的基于线程监控的资源控制方式,这样做到的主要出发点是:这样的方式更加灵活。且可以防止内存骤增骤降导致内存不足而死掉。

对于CPU资源隔离。YARN採用了轻量级的Cgroups。

注:默认情况下,NM未启用不论什么CPU资源隔离机制。假设想要启用该机制,需使用LinuxContainerExecutor,它可以以应用程序提交者的身份创建文件,执行Container和销毁Container.

八 小结

NodeManager作为资源管理系统YARN的一个重要服务,它的主要功能包含节点健康状况检測、分布式缓存机制、文件夹结构管理、状态机管理、Container生命周期、资源隔离机制等机制。NM管理的是Container而不是任务,一个Container中可能执行着各种任务。可是对NM而言是透明的。它仅仅负责Container相关操作。比方管理Container的生命周期。即启动Container、监控Container和清理Container等

时间: 2024-10-29 19:08:05

Hadoop - YARN NodeManager 剖析的相关文章

Hadoop YARN配置参数剖析—RM与NM相关参数

注意,配置这些参数前,应充分理解这几个参数的含义,以防止误配给集群带来的隐患.另外,这些参数均需要在yarn-site.xml中配置. 1.    ResourceManager相关配置参数 (1) yarn.resourcemanager.address 参数解释:ResourceManager 对客户端暴露的地址.客户端通过该地址向RM提交应用程序,杀死应用程序等. 默认值:${yarn.resourcemanager.hostname}:8032 (2) yarn.resourcemana

决胜大数据时代:Hadoop&Yarn&Spark企业级最佳实践(8天完整版脱产式培训版本)

Hadoop.Yarn.Spark是企业构建生产环境下大数据中心的关键技术,也是大数据处理的核心技术,是每个云计算大数据工程师必修课. 课程简介 大数据时代的精髓技术在于Hadoop.Yarn.Spark,是大数据时代公司和个人必须掌握和使用的核心内容. Hadoop.Yarn.Spark是Yahoo!.阿里淘宝等公司公认的大数据时代的三大核心技术,是大数据处理的灵魂,是云计算大数据时代的技术命脉之所在,以Hadoop.Yarn.Spark为基石构建起来云计算大数据中心广泛运行于Yahoo!.阿

hadoop yarn 运行wordcount时执行完成,但是返回错误

错误信息如下: 15/09/05 03:48:02 INFO mapreduce.Job: Job job_1441395011668_0001 failed with state FAILED due to: Application application_1441395011668_0001 failed 2 times due to AM Container for appattempt_1441395011668_0001_000002 exited with exitCode: 1 F

Apache Hadoop YARN: 背景及概述

从2012年8月开始Apache Hadoop YARN(YARN = Yet Another Resource Negotiator)成了Apache Hadoop的一项子工程.自此Apache Hadoop由下面四个子工程组成: Hadoop Comon:核心库,为其他部分服务 Hadoop HDFS:分布式存储系统 Hadoop MapReduce:MapReduce模型的开源实现 Hadoop YARN:新一代Hadoop数据处理框架 概括来说,Hadoop YARN的目的是使得Hado

Hadoop YARN: 1/1 local-dirs are bad: /var/lib/hadoop-yarn/cache/yarn/nm-local-dir; 1/1 log-dirs are bad: /var/log/hadoop-yarn/containers hdfs硬盘90% yarn unhealthy

1/1 local-dirs are bad: /var/lib/hadoop-yarn/cache/yarn/nm-local-dir; 1/1 log-dirs are bad: /var/log/hadoop-yarn/containers Node Manager logs 1 2 3 yarn.server.nodemanager.DirectoryCollection: Directory /var/lib/hadoop-yarn/cache/yarn/nm-local-dir er

Hadoop Yarn on Docker

搭建Hadoop Yarn on Docker 一.概览 Docker基于Linux Container技术整合了一堆易用的接口用于构建非常轻量级的虚拟机.Docker Container Executor(DCE)使得Yarn NodeManager服务可以将其container进程运行在Docker容器中.用户可以自定义运行Yarn container的Docker镜像.这些container提供了自定义的.与外部NodeManger隔离的运行环境,还可以指定安装与NodeManager不同

# Apache Hadoop Yarn: Yet Another Resource Negotiator论文解读

纯属云平台管理学习菜鸟的笔记,参照许多大牛的博客,如有侵权,请联系,立刻删除. Abstract 1) tight coupling of a specific programming model with the re- source management infrastructure, forcing developers to abuse the MapReduce programming model, and 2) centralized handling of jobs' contro

Hadoop yarn配置参数

参照site:http://hadoop.apache.org/docs/r2.6.0/hadoop-yarn/hadoop-yarn-common/yarn-default.xml 我们在配置yarn的时候只有充分了解各参数的含义,才能避免隐患.这些参数均在yarn-site.xml中配置 以下涉及的简写: RM :ResourceManager AM :ApplicationMaster NM :NodeManager 参数 默认值 描述 yarn.resourcemanager.hostn

Hadoop/Yarn/MapReduce内存分配(配置)方案

以horntonworks给出推荐配置为蓝本,给出一种常见的Hadoop集群上各组件的内存分配方案.方案最右侧一栏是一个8G VM的分配方案,方案预留1-2G的内存给操作系统,分配4G给Yarn/MapReduce,当然也包括了HIVE,剩余的2-3G是在需要使用HBase时预留给HBase的. Configuration File Configuration Setting Value Calculation        8G VM (4G For MR)    yarn-site.xml