yarn资源调度设置

下面配置的是两个队列default和etl, default队列分配20%的处理能力, etl队列分配80%的处理能力,用户dba只能向default队列提交作业,用户etl只能向etl队列提交作业,dba用户组只能向default队列提交任务:

yarn.scheduler.capacity.maximum-am-resource-percent=0.2 --AM可以占用资源队列的最大百分比

yarn.scheduler.capacity.maximum-applications=10000 --最多并行运行的作业数目

yarn.scheduler.capacity.node-locality-delay=40

yarn.scheduler.capacity.root.accessible-node-labels=*

yarn.scheduler.capacity.root.acl_administer_queue=root

yarn.scheduler.capacity.root.acl_submit_applications=*

yarn.scheduler.capacity.root.capacity=100

yarn.scheduler.capacity.root.etl.accessible-node-labels=*

yarn.scheduler.capacity.root.etl.acl_administer_queue=root

yarn.scheduler.capacity.root.etl.capacity=80--能力分配

yarn.scheduler.capacity.root.etl.maximum-capacity=80--最大能力

yarn.scheduler.capacity.root.etl.minimum-user-limit-percent=100

yarn.scheduler.capacity.root.etl.ordering-policy=fifo

yarn.scheduler.capacity.root.etl.state=RUNNING

yarn.scheduler.capacity.root.etl.user-limit-factor=1

yarn.scheduler.capacity.root.dba.acl_administer_queue=root

yarn.scheduler.capacity.root.dba.capacity=20--能力分配

yarn.scheduler.capacity.root.dba.maximum-capacity=20--最大能力

yarn.scheduler.capacity.root.dba.minimum-user-limit-percent=100

yarn.scheduler.capacity.root.dba.ordering-policy=fifo

yarn.scheduler.capacity.root.dba.state=RUNNING--状态

yarn.scheduler.capacity.root.dba.user-limit-factor=1

yarn.scheduler.capacity.root.queues=default,etl--定义队列

yarn.scheduler.capacity.queue-mappings=u:etl:etl,u:dba:default,g:dba:default--用户、用户组队列映射

yarn.scheduler.capacity.queue-mappings-override.enable=true

--启用映射重写功能

时间: 2024-08-30 04:10:54

yarn资源调度设置的相关文章

YARN资源调度器

YARN资源调度器 随着Hadoop的普及,单个Hadoop集群的用户量越来越大,不同用户提交的应用程序往往具有不同的服务质量要求,典型的应用有以下几种: 批处理作业.这种作业往往耗时较长,对完成时间一般没有严格要求,如数据挖掘.机器学习等方面的应用程序 交互式作业.这种作业期望能及时返回结果,如用HIVE执行查询 生产性作业.这种作业要求有一定量的资源保证,如统计值计算.垃圾数据分析等 1. 基本架构 资源调度器是YARN中最核心的组件之一,且是插拔式的,它定义了一整套接口规范以便用户可按照需

Hadoop学习之路(8)Yarn资源调度系统详解

文章目录 1.Yarn介绍 2.Yarn架构 2.1 .ResourceManager 2.2 .ApplicationMaster 2.3 .NodeManager 2.4 .Container 2.5 .Resource Request 及 Container 2.6 .JobHistoryServer 2.7.Timeline Server 3.yarn应用运行原理 3.1.yarn应用提交过程 3.2.mapreduce on yarn 4. yarn使用 4.1 .配置文件 4.2.

8、Yarn资源调度系统架构与原理分析

@[TOC] 1.Yarn介绍    Apache Hadoop YARN 是 apache Software Foundation Hadoop的子项目,为分离Hadoop2.0资源管理和计算组件而引入.YARN的诞生缘于存储于HDFS的数据需要更多的交互模式,不单单是MapReduce模式.Hadoop2.0 的YARN 架构提供了更多的处理框架,比如spark框架,不再强迫使用MapReduce框架.   从hadoop2.0 的架构图可以看出,YARN承担着原本由MapReduce承担的

Yarn资源调度管理

1.ResourceManager(资源管理器RM)常驻守护进程: 管理集群资源,负责全局资源的监控.分配和管理: 接收来自nodemanager的心跳信息,进行整体资源的汇总: 监控Applicacation Master的开启和创建: 2.Nodemanager(节点管理器NM)常驻守护进程: yarn中的每一台节点服务器都运行一个nodemanager,Nodemanager相当于管理当前机器的一个代理: 负责本台机器的程序运行,并且对本台机器资源进行管理和监控: Nodemanager定

Yarn && npm设置镜像源

yarn yarn config set registry https://registry.npm.taobao.org --global yarn config set disturl https://npm.taobao.org/dist --global npm npm config set registry https://registry.npm.taobao.org --global npm config set disturl https://npm.taobao.org/dis

Yarn的资源调度与erlang进程调度二三事

Yarn资源调度器 1.Capacity scheduler 设计目的:以队列为单位划分资源,旨在让分布式集群资源被多用户共享,被多application共享,不同队列间可以动态迁移资源,避免资源被单个应用或单个用户独占,提高集群资源吞吐量和利用率. 核心思想:传统多个独立集群各占一组机器资源以备不时之需,拥有各自的管理开销,这通常导致比较差的资源利用率和极大的管理开销,capacityscheduler通过一种弹性组织方式为各队列资源构建一个共同基金,然后根据他们对资源的需求,跨资源队列来共享

YARN应用场景、原理与资源调度

1.Hadoop YARN产生背景 源于MapReduce1.0 运维成本 如果采用“一个框架一个集群”的模式,则可能需要多个管理员管理这些集群,进而增加运维成本,而共享模式通常需要少数管理员即可完成多个框架的统一管理. 数据共享 随着数据量的暴增,跨集群间的数据移动不仅需花费更长的时间,且硬件成本也会大大增加,而共享集群模式可让多种框架共享数据和硬件资源,将大大减小数据移动带来的成本. 直接源于MRv1在几个方面的缺陷: ?扩展性受限 ?单点故障 ?难以支持MR之外的计算 多计算框架各自为战,

基于Hadoop2.0、YARN技术的大数据高阶应用实战(Hadoop2.0\YARN\Ma

Hadoop的前景 随着云计算.大数据迅速发展,亟需用hadoop解决大数据量高并发访问的瓶颈.谷歌.淘宝.百度.京东等底层都应用hadoop.越来越多的企 业急需引入hadoop技术人才.由于掌握Hadoop技术的开发人员并不多,直接导致了这几年hadoop技术的薪水远高于JavaEE及 Android程序员. Hadoop入门薪资已经达到了8K以上,工作1年可达到1.2W以上,具有2-3年工作经验的hadoop人才年薪可以达到30万—50万. 一般需要大数据处理的公司基本上都是大公司,所以学

Spark任务调度executors分配问题 in yarn

红色留着继续思考.  问题背景:  CCSWYB ,在云平台上模拟shell流程,在各个节点上分配fvcom计算任务. Spark程序流程: 从HDFS中读取tasklist.txt(每一行对应一个任务) 经过一些操作过后生成一个JavaPairRDD ,记作data,对data执行foreach操作,函数内执行shell脚本启动任务.可以正常执行任务.  集群: 四个i5机器,hadoop2.3.0 + spark 1.0.0 + jdk1.7.0_60 问题: 任务数目从2 - 20 左右,