安装hadoop2.4.1

1上传hadoop包

2解压hadoop包

首先在根目录创建一个目录

mkdir /itcast

tar -zxvf hadoop-2.4.1.tar.gz -C /itcast/

hadoop的配置文件在:/itcast/hadoop-2.4.1/etc/hadoop下

注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop

伪分布式需要修改5个配置文件

3.配置hadoop

第一个:修改Hadoop的环境变量 hadoop-env.sh

vim hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_65
第二个:core-site.xml
<configuration>
        <property><!-- 制定HDFS的老大(NameNode)的地址 -->
                <name>fs.defaultFS</name>
                <value>hdfs://itcast01:9000</value>
        </property>
        <property><!-- 指定hadoop运行时产生文件的存储目录 -->
                <name>hadoop.tmp.dir</name>
                <value>/itcast/hadoop-2.4.1/tmp</value>
        </property>
</configuration>
第三个:hdfs-site.xml

<!-- 指定HDFS副本的数量 -->
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)

mv mapred-site.xml.template mapred-site.xml

vim mapred-site.xml

<property><!-- 指定mr运行在yarn上 -->
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
第五个:yarn-site.xml

<property><!-- 指定YARN的老大(ResourceManager)的地址 -->
    <name>yarn.resourcemanager.hostname</name>
    <value>itcast01</value>
</property>

<property><!-- reducer获取数据的方式 -->
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

4.将hadoop添加到环境变量

vim /etc/proflie

export JAVA_HOME=/usr/java/jdk1.7.0_65

export HADOOP_HOME=/itcast/hadoop-2.4.1

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

5初始化HDFS (就是格式化文件系统)

格式化只需要一次就行,没有必要每次都格式化,格式化会清除里面的数据

格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format  过时)

格式化成功的提示中有一行:

16/04/20 05:48:09 INFO common.Storage: Storage directory /itcast/hadoop-2.4.1/tmp/dfs/name has been successfully formatted.

6.启动hadoop

方式一:sbin/start-all.sh (可以使用,但是已经过时了,使用时要不断的输入密码)

方式二:先启动HDFS

      sbin/start-dfs.sh

再启动YARN

      sbin/start-yarn.sh

7.验证是否启动成功

使用jps命令验证

27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager
27512 DataNode

http://192.168.8.118:50070 (HDFS管理界面)

http://192.168.8.118:8088 (MR管理界面)

a.测试HDFS

上传文件到hdfs:

hadoop fs -put /root/soft/jdk-7u79-linux-i586.tar.gz  /*Linux环境下的文件*/

hdfs://itcast01:9000/jdk   /*将hdfs当做一个网盘*/

从hdfs下载文件到本地:

hadoop fs -get hdfs://itcast01:9000/jdk /root/soft/jdk1.7

b.测试MR和YARN

进入:/itcast/hadoop-2.4.1/share/hadoop/mapreduce下运行一个Hadoop自带的例子

hadoop jar

hadoop-mapreduce-examples-2.4.1.jar  /*例子*/

wordcount /*统计输入文件的字符并输出到知道那个的文件*/

hdfs://itcast01:9000/worlds /*输入*/

hdfs://itcast01:9000/wcout2 /*输出*/

可以在http://192.168.1.122:50070/explorer.html#/  中查看生成的文件

时间: 2024-08-06 01:01:53

安装hadoop2.4.1的相关文章

64位ubuntu上安装 hadoop-2.4.0

完全参考:http://blog.csdn.net/cruise_h/article/details/18709969 这上面的安装教程 伪分布配置: http://my.oschina.net/mynote/blog/93735 64位ubuntu上安装 hadoop-2.4.0,布布扣,bubuko.com

CentOS上安装Hadoop2.7,添加数据节点,运行wordcount

安装hadoop的步骤比较繁琐,但是并不难. 在CentOS上安装Hadoop2.7 1. 安装 CentOS,注:图形界面并无必要 2. 在CentOS里设置静态IP,手工编辑如下4个文件 /etc/hosts /etc/sysconfig/netwok /etc/hostname /etc/sysconfig/network-scripts/ifcfg-eno1677773 3. 关闭防火墙 Close firewalld systemctl stop firewalld.service #

安装hadoop2.7.3

hadoop3与hadoop2.x的变化很大,hadoop3很多东西现在做起来太麻烦了,这里先安装hadoop2.7.3 此贴学习地址http://www.yiibai.com/t/mapreduce/article-14.html,不过有些改动 1.下载解压hadoop包 wget http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz tar zxf hadoop-2.7.3.tar.gz mv hadoop

一、Ubuntu14.04下安装Hadoop2.4.0 (单机模式)

一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可. 如果不输入密码,回车后会重新提示输入密码,即密码不能为空. 最后确认信息是否正确,如果没问题,输入 Y,回车即可. 3.为ha

centos6.4安装hadoop2.4.1

#关闭防火墙 service iptablesstop 1:安装JDK 1.1上传jdk-7u_65-i585.tar.gz 1.2解压jdk #创建文件夹 mkdir /home/hadoop/app #解压 tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app 1.3将java添加到环境变量中 sudo vim /etc/profile #在文件最后添加 export JAVA_HOME=/home/hadoop/app/jdk-7

CentOS7安装Hadoop2.7完整流程

总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs.mapreduce等主从关系. 1.环境,3台CentOS7,64位,Hadoop2.7需要64位Linux,CentOS7 Minimal的ISO文件只有600M,操作系统十几分钟就可以安装完成,Master 192.168.0.182Slave1 192.168.0.183Slave2 192.168.0.184 2.SSH免密码登录,因为Hadoop需要通过SSH登录到各

ubuntu14.04安装hadoop2.7.1伪分布式和错误解决

ubuntu14.04安装hadoop2.7.1伪分布式和错误解决需要说明的是我下载的是源码,通过编译源码并安装一.需要准备的软件:1.JDK和GCC    设置JAVA_HOME:        vim ~/.bashrc        在最后增加:export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_31,保存退出.        使设置立即生效:source ~/.bashrc        测试JAVA_HOME是否设置成功,输出了上面设置的路径表示成功:    

Ubuntu 14.04下安装Hadoop2.4.0 (单机模式)

转自 http://www.linuxidc.com/Linux/2015-01/112370.htm 一.在Ubuntu下创建Hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可. 如果不输入密码,回车后

安装hadoop2.4.0遇到的问题

一.执行start-dfs.sh后,datenode没有启动 查看日志如下: 2014-06-18 20:34:59,622 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000java.io

Ubuntu16.04安装Hadoop2.7.3教程

Ubuntu16.04安装Hadoop2.7.3 教程 参考厦门大学数据库实验室 http://dblab.xmu.edu.cn/blog/install-hadoop/,遇到相关的地方有改动. 作者:秦景坤 日期:2017-4-20 主要内部包括 环境配置和本地和伪分布 本文档适合于原生Hadoop2,参考相关文档,亲自动手实践来一步一步搭建环境.转载请指明出处. 环境 本教程使用Ubuntu16.04 64位作为系统环境,包括桌面版和server版,其他版本系统,若有差异请自行百度安装教程系