第四课:Yarn和Map/Reduce配置启动和原理讲解

前三节课主要讲了hdfs,hdfs就是一个分鱼展的大硬盘

分:分块

鱼:冗余

展:动态扩展

接下来讲云计算,也可以理解为分布式计算,其设计原则:

移动计算,而不是移动数据

前面说过,hadoop由hdfs,yarn,map/reduce组成,

而yarn(Yet Another Resource Negotiator)是资源调度系统,yarn调配的是内存和cpu,不参入计算。

map/reduce是计算引擎。

(1)配置yarn

yarn由一台resourceManager和n台dataManager组成,resourceManager管理着n台dataManager,

resourceManager原则上应该和namenode分开,单独在一个节点上,现在是在做实验,为了演示方便,

才放在一起的,而dataManager可以和datanode放在一起,这样dataManager和数据离的近一点,

当然也可以不放在一起。

要启动yarn系统,需要先配置一些参数:

a)配置yarn-size.xml

resourceManager和dataManager每一个节点都需要配置yarn-size.xml,配置如下:

<?xml version="1.0"?>
<configuration>
 <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
 </property>

 <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>  

 <property>
    <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
 </property>
</configuration>

b) 配置mapred-site.xml

只需要在master的/usr/local/hadoop/etc/hadoop目录下,

复制mapred-site.xml.template,即执行命令

[[email protected] hadoop]# cp mapred-site.xml.template mapred-site.xml

编辑mapred-site.xml,vim mapred-site.xml:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

这是配置map/reduce在哪个系统上运行,这里配置的yarn,也可以配置其他的。

(2)启动yarn

[[email protected] hadoop]# start-yarn.sh

使用jps查看启动情况

启动成功后,可在浏览器上查看web界面

(3)运行一个map/reduce示例程序

要先把hdfs也启动起来:

[[email protected] hadoop]# start-dfs.sh

上传一个文件到hdfs的/input目录上

#在namenode的根目录上创建input目录
[[email protected] hadoop]# hadoop fs -mkdir /input
#上传一个测试文件到hadoop的/input目录上
[[email protected] hadoop]# hadoop fs -put /root/input.txt  /input

input.txt的内容如下:

find /usr/local/hadoop -name *example*.jar 查找示例程序文件

通过hadoop jar xxx.jar wordcount /input /output来运行示例程序

执行结果为:

原文地址:https://www.cnblogs.com/yuexiaoyun/p/9437761.html

时间: 2024-10-12 03:16:15

第四课:Yarn和Map/Reduce配置启动和原理讲解的相关文章

第四课(2)——mysql配置参数讲解

*****************general***************** user 启动mysql domain的用户 port 数据库端口号 socket 数据库socket文件的路径 pid_file 数据库启动进程文件的路径 datadir 数据文件路径 tmpdir 临时文件路径 log_bin 配置二进制文件名称.路径(不写绝对路径就在datadir下) relay-log 配置中继日志名称.路径(不写绝对路径就在datadir下) log_error 配置错误日志名称.路径

在YARN中,如何控制和监控map/reduce的并发数

配置建议: 1.     In MR1, the mapred.tasktracker.map.tasks.maximum and mapred.tasktracker.reduce.tasks.maximum properties dictated how many map and reduce slots each TaskTracker had. These properties no longer exist in YARN. Instead, YARN uses yarn.nodema

第四章 YARN 第一节 YARN应用运行分析

Apache YARN(Yet Another Resource Negotiator)是一个HADOOP集群资源管理系统.YARN在HADOOP2 中引入,但是它足够通用,也支持其它的分布式计算程序. YARN提供了用于请求和使用集群资源的API,但是这些API不是直接由用户代码使用的.用户写更高级的由 分布式计算框架提供的API,这些框架是建立在YARN之上的,对用户隐藏了资源管理的细节.这个情况如图4-1 所示,它显示了一些作为YARN应用的分布式计算框架(MapReduce,Spark等

手动计算yarn和mapareduce的配置

Hadoop YARN同时支持内存和CPU两种资源的调度,本文介绍如何配置YARN对内存和CPU的使用. YARN作为一个资源调度器,应该考虑到集群里面每一台机子的计算资源,然后根据application申请的资源进行分配Container.Container是YARN里面资源分配的基本单位,具有一定的内存以及CPU资源. 在YARN集群中,平衡内存.CPU.磁盘的资源的很重要的,根据经验,每两个container使用一块磁盘以及一个CPU核的时候可以使集群的资源得到一个比较好的利用. 内存配置

Map/Reduce 工作机制分析 --- 作业的执行流程

前言 从运行我们的 Map/Reduce 程序,到结果的提交,Hadoop 平台其实做了很多事情. 那么 Hadoop 平台到底做了什么事情,让 Map/Reduce 程序可以如此 "轻易" 地实现分布式运行? Map/Reduce 任务执行总流程 经过之前的学习,我们已经知道一个 Map/Reduce 作业的总流程为: 代码编写  -->  作业配置  -->  作业提交  -->  Map任务的分配和执行  -->  处理中间结果(Shuffle)  --&

Hadoop学习:Map/Reduce初探与小Demo实现

一.    概念知识介绍 Hadoop MapReduce是一个用于处理海量数据的分布式计算框架.这个框架攻克了诸如数据分布式存储.作业调度.容错.机器间通信等复杂问题,能够使没有并行 处理或者分布式计算经验的project师,也能非常轻松地写出结构简单的.应用于成百上千台机器处理大规模数据的并行分布式程序. Hadoop MapReduce基于"分而治之"的思想,将计算任务抽象成map和reduce两个计算过程,能够简单理解为"分散运算-归并结果"的过程.一个 M

分布式基础学习(2)分布式计算系统(Map/Reduce)

二. 分布式计算(Map/Reduce) 分 布式式计算,同样是一个宽泛的概念,在这里,它狭义的指代,按Google Map/Reduce框架所设计的分布式框架.在Hadoop中,分布式文件 系统,很大程度上,是为各种分布式计算需求所服务的.我们说分布式文件系统就是加了分布式的文件系统,类似的定义推广到分布式计算上,我们可以将其视为增 加了分布式支持的计算函数.从计算的角度上看,Map/Reduce框架接受各种格式的键值对文件作为输入,读取计算后,最终生成自定义格式的输出文件. 而从分布式的角度

hadoop学习WordCount+Block+Split+Shuffle+Map+Reduce技术详解

转自:http://blog.csdn.net/yczws1/article/details/21899007 纯干货:通过WourdCount程序示例:详细讲解MapReduce之Block+Split+Shuffle+Map+Reduce的区别及数据处理流程. Shuffle过程是MapReduce的核心,集中了MR过程最关键的部分.要想了解MR,Shuffle是必须要理解的.了解Shuffle的过程,更有利于我们在对MapReduce job性能调优的工作有帮助,以及进一步加深我们对MR内

第九篇:Map/Reduce 工作机制分析 - 作业的执行流程

前言 从运行我们的 Map/Reduce 程序,到结果的提交,Hadoop 平台其实做了很多事情. 那么 Hadoop 平台到底做了什么事情,让 Map/Reduce 程序可以如此 "轻易" 地实现分布式运行? Map/Reduce 任务执行总流程 经过之前的学习,我们已经知道一个 Map/Reduce 作业的总流程为: 代码编写  -->  作业配置  -->  作业提交  -->  Map任务的分配和执行  -->  处理中间结果(Shuffle)  --&