hadoop1 & hadoop2 fair-schduler 配置和使用

hadoop1

  • 配置 mapred-site.xml,增加如下内容
 <property>
        <name>mapred.jobtracker.taskScheduler</name>
        <value>org.apache.hadoop.mapred.FairScheduler</value>
    </property>
    <property>
        <name>mapred.fairscheduler.allocation.file</name>
        <value>/etc/hadoop/conf/pools.xml</value>
    </property>
  • 配置 pools.xml,增加如下内容

<queue name="default”>
  <minResources>1024 mb,1vcores</minResources>
  <maxResources>61440 mb,20vcores</maxResources>
  <maxRunningApps>10</maxRunningApps>
  <weight>2.0</weight>
  <schedulingPolicy>fair</schedulingPolicy>
</queue>

<queue name=“hadoop”>
  <minResources>1024 mb,10vcores</minResources>
  <maxResources>3072000 mb,960vcores</maxResources>
  <maxRunningApps>60</maxRunningApps>
  <weight>5.0</weight>
  <schedulingPolicy>fair</schedulingPolicy>
  <aclSubmitApps>hadoop,yarn,spark</aclSubmitApps>
</queue>

<queue name="spark">
  <minResources>1024 mb,10vcores</minResources>
  <maxResources>61440 mb,20vcores</maxResources>
  <maxRunningApps>10</maxRunningApps>
  <weight>4.0</weight>
  <schedulingPolicy>fair</schedulingPolicy>
<aclSubmitApps>yarn,spark</aclSubmitApps>
</queue>

<userMaxAppsDefault>20</userMaxAppsDefault>
  • 提交作业指定队列方式
 -Dmapred.job.queue.name=hadoop

hadoop2

  • 配置 yarn-site.xml,增加如下内容
<property>
  <name>yarn.resourcemanager.scheduler.class</name>
                 <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
</property>

<property>
   <name>yarn.scheduler.fair.allocation.file</name>
   <value>/home/cluster/conf/hadoop/fair-scheduler.xml</value>
</property>

<property>
  <name>yarn.scheduler.fair.user-as-default-queue</name>
  //如果希望以用户名作为队列,可以将该属性配置为true,默认为true,所以如果不想以用户名为队列的,必须显式的设置成false
  <value>false</value>
</property> 
  • 配置 fair-scheduler.xml,增加如下内容
<queue name="default”>
  <minResources>1024 mb,1vcores</minResources>
  <maxResources>61440 mb,20vcores</maxResources>
  <maxRunningApps>10</maxRunningApps>
  <weight>2.0</weight>
  <schedulingPolicy>fair</schedulingPolicy>
</queue>

<queue name=“hadoop”>
  <minResources>1024 mb,10vcores</minResources>
  <maxResources>3072000 mb,960vcores</maxResources>
  <maxRunningApps>60</maxRunningApps>
  <weight>5.0</weight>
  <schedulingPolicy>fair</schedulingPolicy>
  <aclSubmitApps>hadoop,yarn,spark</aclSubmitApps>
</queue>

<queue name="spark">
  <minResources>1024 mb,10vcores</minResources>
  <maxResources>61440 mb,20vcores</maxResources>
  <maxRunningApps>10</maxRunningApps>
  <weight>4.0</weight>
  <schedulingPolicy>fair</schedulingPolicy>
<aclSubmitApps>yarn,spark</aclSubmitApps>
</queue>

<userMaxAppsDefault>20</userMaxAppsDefault>
  • 提交作业指定队列方式
 -Dmapreduce.job.queuename=root.hadoop

spark

  • 提交作业指定队列方式
 --queue=root.spark

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-08-11 09:11:34

hadoop1 & hadoop2 fair-schduler 配置和使用的相关文章

Hadoop2 NameNode HA配置

Hadoop2 NameNode HA配置 Hadoop2 官方提供了两种NameNode HA的实现方式,分别基于QJM和NFS,这里以基于QJM的HDFS HA为例. 实验环境 系统版本:CentOS release 6.4 (Final) Hadoop版本:Apache Hadoop2.5.1 Hive版本:Hive 0.13.1 IP列表 IP Hostname NameNode DataNode RM NodeManager JournalNode 192.168.20.54 had1

Hadoop-1.0.4 安装配置

Hadoop-1.0.4 安装配置 一.           安装VMware 本人使用的是11.1.2 build-2780323版本 不详细讲述. 二.           在VMware上安装ubuntu 本人使用的是ubuntu 14.10 (为了后续步骤的说明,本人在安装时的用户名.密码均定为hadoop) 开启虚拟机后,调整时间区域,调整系统语言(可选) 三.           克隆虚拟机 关掉虚拟机,在VMware中将安装好的ubuntu克隆出来,这里克隆出了两个当做slave.

ubuntu14.04环境下hadoop2.7.0配置+在windows下远程eclipse和hdfs的调用

本教程是在三台电脑上部署的hadoop正式环境,没有建立用户组,而是在当前用户下直接进行集群的部署的,总结如下: 1.三个节点的主机电脑名为:192.168.11.33 Master,192.168.11.24 Slaver2,192.168.11.4 Slaver1,并且这三台主机用户名都要设置一样,我的都是hadoop的用户. 因为本教程使用的是vim编辑器,如果没有vim可以下载一个:sudo apt-get install vim 2.修改hosts文件:切换到root用户下:sudo 

hadoop2.2环境配置

场景介绍:主机mac pro,安装了两台虚拟机,虚拟机均为Ubuntu系统 ubuntu系统配置jdk 1.到 Sun 的官网下载 http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html 2.解压所下载的文件 [email protected]:~/software$ tar -zxvf jdk-7u79-linux-x64.tar.gz 3.配置java环境变量 [email pro

Hadoop-1.x安装与配置

1.在安装Hadoop之前,需要先安装JDK和SSH. Hadoop采用Java语言开发,MapReduce的运行和Hadoop的编译都依赖于JDK.因此必须先安装JDK1.6或更高版本(在实际生产环境下一般采用JDK1.6,因为Hadoop的部分组件不支持JDK1.7及以上版本).Hadoop利用SSH来启动Slave机器上的守护进程,对于在单机上运行的伪分布式,Hadoop采用了与集群相同的处理方式.所以SSH也是必须安装的. JDK1.6的安装配置步骤: (1)从网上下载JDK1.6的安装

Hadoop2.7的配置部署及测试

1.环境准备: 安装Centos6.5的操作系统 下载hadoop2.7版本的软件 wget http://124.205.69.132/files/224400000162626A/mirrors.hust.edu.cn/apache/hadoop/common/stable/hadoop-2.7.1.tar.gz 下载jdk1.87版本的软件 wget http://download.oracle.com/otn-pub/java/jdk/8u60-b27/jdk-8u60-linux-x6

hadoop2.6安装配置以及整合eclipse开发环境

在ubuntu14.04上安装java和hadoop环境 Java安装的是/usr/lib/jvm/jdk1.7.0_72 1.下载, 2.使用sudo创建jvm文件夹,并且cp 3.解压tar–zxvf 4.sudochown -R castle:castle hadoop-2.6.0修改权限 5.配置环境变量 ~/.profile中也可以在~/.bashrc中添加 #setjava env exportJAVA_HOME=/usr/lib/jvm/jdk1.7.0_72 exportJRE_

hadoop-2.2.0配置eclipse插件(windows和linux平台)

目前配置eclipse插件主要有两个版本,一个是在windows下重新编译配置,另一个是在linux在重新配置编译. 下面逐步讲解在linux下编译-配置eclipse插件的过程. 环境: Ubuntu 12.04 64bit 3.2.0-29-generic eclipse-jee-luna-R-linux-gtk-x86_64.tar.gz Apache Ant(TM) version 1.8.2 JDK Version 1.7.0_67 安装前准备: Ant.jdk.eclipse.Apa

Hadoop2.6.0配置参数查看小工具

前言 使用Hadoop进行离线分析或者数据挖掘的工程师,经常会需要对Hadoop集群或者mapreduce作业进行性能调优.也许你知道通过浏览器访问http://master:18088/conf来查看配置信息,如下图所示: 但是当Linux工程师们只面对命令行时,如何查看呢?而且如果运维工程师根据集群状况及运行历史使用shell.Python.ruby等脚本写些运维代码,甚至动态调整集群参数时,该怎么办呢?性能调优的前提是需要能准确知道目前针对Hadoop集群或者mapreduce作业配置的参