Hadoop 2.2 配置安装

环境:centos 5.5, Hadoop 2.2

第一步: 安装JDK7

1.1 下载jdk7 http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html, 我用的jdk1.7.0_51

1.2 下载完成后解压到某个目录,这里举例解压在/home/software/下。

1.3 正常情况下,centos已经带了某个版本的jdk,但是可能不是jdk7. 这样的话,就需要用jdk7替换当前版本的. 最简单的方法,删除/usr/bin/java,

然后创建一个软连接到/home/software/jdk1.7.0_51/bin/java, 命令如下

rm -f /usr/bin/java

ln /usr/bin/java  /home/software/jdk1.7.0_51/bin/java

1.4 检查java的版本是否是最新版本 java -version

1.5 把jdk和jre 放到path中去。命令如下

在/etc/profile的最前面加上如下语句(需要sudo权限)

export JAVA_HOME=/home/software/jdk1.7.0_51

export JRE_HOME=/home/software/jdk1.7.0_51/jre

export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

修改完成之后,保存。

执行如下语句 source /etc/profile (目的是刷新环境变量)

1.6 检查java 版本是否是你安装的版本

第二步:配置hadoop用户

2.1 添加hadoop用户,命令如下

useradd hadoop

2.2 给新加的hadoop用户设置密码

passwd hadoop

2.3 让hadoop具有sudo权限(需要sudo权限)

编辑/etc/sudoers 找到##Allow root to run any commands anywhere,在这句话下面添加

hadoop ALL=(ALL) ALL

保存退出

第三步:配置ssh免密码登陆(注意:以下步骤都是用hadoop用户操作)

3.1 生成秘钥,并把秘钥添加到authorized_keys 中

# su - hadoop
$ ssh-keygen -t rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
$ exit

3.2 修改/etc/ssh/sshd_config文件,允许无密码登陆

修改如下

3.3 验证是否可以登陆

ssh localhost

3.4 如果你需要配置slave机器,一定要把你的id_rsa.pub 中的内容添加到其他slave机器中的 ~/.ssh/authorized_keys 中。并确保修改了3.2中配置文件

第四步:配置hadoop(注意版本是2.2.0)

4.1 下载hadoop http://www.webhostingjams.com/mirror/apache/hadoop/common/hadoop-2.2.0/

4.2 解压到某个目录,本文在这里解压到/opt/目录下,命令如下

tar -zxvf hadoop-2.2.0.tar.gz

4.3 修改环境变量,把如下命令拷贝到/etc/profile的最前面

export HADOOP_HOME=/opt/hadoop

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export YARN_HOME=$HADOOP_HOME

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

4.4 把如下命令添加到/opt/hadoop/libexec/hadoop-config.sh中

export JAVA_HOME=/home/software/jdk1.7.0_51

4.5 把如下命令添加到/opt/hadoop/etc/hadoop/yarn-env.sh

export
JAVA_HOME=/home/software/jdk1.7.0_51

export HADOOP_HOME=/opt/hadoop

export HADOOP_MAPRED_HOME=$HADOOP_HOME

export HADOOP_COMMON_HOME=$HADOOP_HOME

export HADOOP_HDFS_HOME=$HADOOP_HOME

export YARN_HOME=$HADOOP_HOME

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

4.6
创建tmpfile

mkdir
/opt/hadoop/tmp

4.7
用如下内容替换/opt/hadoop/etc/hadoop/core-site.xml中的内容

<?xml
version="1.0" encoding="UTF-8"?>

<?xml-stylesheet
type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/haddop/tmp</value>

</property>
</configuration>

4.8
用如下内容替换/opt/hadoop/etc/hadoop/hdfs-site.xml中的内容

<?xml
version="1.0" encoding="UTF-8"?>

<?xml-stylesheet
type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>

4.9

用如下内容替换/opt/hadoop/etc/hadoop/mapred-site.xml中的内容

<?xml
version="1.0"?>

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

4.10 用如下内容替换/opt/hadoop/etc/hadoop/yarn-site.xml中的内容

<?xml
version="1.0"?>

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8025</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8040</value>

</property>

</configuration>

第五部:配置集群,配置slave

5.1 如果是单机运行的话,上面就可以用了,要配置集群请从第5.2步开始

5.2 配置slave,配置步骤为第一步到第四步

5.3 修改/etc/hosts,假设你有1台master和2台slave,机器名分别为master,slave1和slave2

修改机器中所有机器的/etc/hosts,添加如下内容

master 192.168.1.100

slave1 192.168.1.101

slave2 192.168.1.102

上面的ip地址请按实际情况添加

5.4 修改master机器上的/opt/hadoop/etc/hadoop/slaves,添加如下内容

slave1

slave2

第六步 启动集群

6.1 格式化 namenode(master)

bin/hadoop namenode -format

6.2 启动所有服务(包括namenode,datanode,nodemanager)

sbin/start_all.sh

6.3
启动resourcemanager

sbin/yarn-daemon.sh
start resourcemanager

6.4 启动 histtoryserver

sbin/mr-jobhistory-daemon.sh
start historyserver

6.5 查看服务是否已经启动

jps

references:

http://tecadmin.net/steps-to-install-java-on-centos-5-6-or-rhel-5-6/

http://tecadmin.net/steps-to-install-hadoop-on-centosrhel-6/

http://alanxelsys.com/2014/02/01/hadoop-2-2-single-node-installation-on-centos-6-5/

Hadoop 2.2 配置安装

时间: 2024-10-10 15:24:46

Hadoop 2.2 配置安装的相关文章

Centos 安装R 集成 Hadoop、RHive 配置安装手册

RHive 是一种通过HIVE高性能查询来扩展R计算能力的包.它可以在R环境中非常容易的调用HQL, 也允许在Hive中使用R的对象和函数.理论上数据处理量可以无限扩展的Hive平台,搭配上数据挖掘的利器R环境, 堪称是一个完美的大数据分析挖掘的工作环境. 资源包下载地址: http://pan.baidu.com/s/1ntwzeTb 安装 首先hadoop 以及hive 的安装这里就跳过了.这里主要介绍在Centos 中如何安装R 语言以及如何集成Rhive 到hadoop 中. 本次实验节

Ubuntu下配置安装Hadoop 2.2

---恢复内容开始--- 这两天玩Hadoop,之前在我的Mac上配置了好长时间都没成功的Hadoop环境,今天想在win7 虚拟机下的Ubuntu12.04 64位机下配置, 然后再建一个组群看一看. 参考资料: 1. Installing single node Hadoop 2.2.0 on Ubuntu: http://bigdatahandler.com/hadoop-hdfs/installing-single-node-hadoop-2-2-0-on-ubuntu/ 配置过程如下:

Hadoop从0开始 (安装配置:转) (一)

之前一直在找安装教程 都是0.20版本的 弄了好久没有弄出来..发现新版跟旧版有很大的不同 今天终于找到新版的安装配置方法.分享出来. 安装环境: 系统:Ubuntu 12.10 hadoop:0.23.6 jdk:sun 1.7.0_21 安装步骤: 一.安装JDK 安装 orcale jdk,并且配置环境以及设置成默认(略) 检查jdk是否正确安装和配置 在主目录下执行java -version 如果出现下面类似结果则ok [email protected]:~$ java -version

2.1 Hadoop Eclipse Plugin 配置及安装

Hadoop Eclipse 开发工具 主要分为 1.根据Hadoop版本生成插件 2.安装Hadoop Eclipse插件 3.配置Hadoop目录 4.配置Hadoop连接 5.新一个MapReduce工程 WordCount.java MapReduce--WordCount问题总结 参考:http://blog.sina.com.cn/s/blog_7fcb1aef0100zpux.html 正成功输入出后信息: 14/05/21 23:06:47 INFO input.FileInpu

hadoop 2.5.0安装和配置

安装hadoop要先做以下准备: 1.jdk,安装教程在 http://www.cnblogs.com/stardjyeah/p/4640917.html 2.ssh无密码验证,配置教程在 http://www.cnblogs.com/stardjyeah/p/4641524.html 3.linux静态ip配置,教程在 http://www.cnblogs.com/stardjyeah/p/4640691.html 准备好以后就可以进行hadoop 2.5.0安装和配置了 1)        

Hadoop学习之第一章节:Hadoop配置安装

一.配置虚拟机三台 1.网络配置 虚拟化软件: Vmware Workstations  10.7z Linux系统:  Centos 6.5-x86_64 采用4台安装Linux环境的机器来构建一个小规模的分布式集群. 集群机器详细信息 1.虚拟化的网络配置方式:桥接网络 2.IP地址设置为固定IP地址 3.主机名配置,需要修改一下地方 (1)配置vi  /etc/hostname (2)配置vi /etc/sysconfig/network (3)配置vi /etc/hosts 4.关闭防火

Hadoop集群_Hadoop安装配置

1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构. 对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve.一个HDFS集群是由一个NameNode和若干个DataNode组成的.其中Nam

Hadoop从0开始 (安装配置:转) (一) - 沐魇

之前一直在找安装教程 都是0.20版本的 弄了好久没有弄出来..我下载的是0.23.11 后来发现是新版跟旧版有很大的不同.官方文档都不更新简直是丧心病狂.. 今天终于找到新版的安装配置方法.多次失败后自己理解并修改了一些步骤添加了一些细节说明.分享出来. 安装环境: 系统:Ubuntu 14   64bit hadoop:0.23.11 jdk:1.8.0_11 安装步骤: 一.安装JDK 安装 jdk,并且配置环境以及设置成默认 检查jdk是否正确安装和配置 在主目录下执行java -ver

ubuntu环境下eclipse的安装以及hadoop插件的配置

ubuntu环境下eclipse的安装以及hadoop插件的配置 一.eclipse的安装 在ubuntu桌面模式下,点击任务栏中的ubuntu软件中心,在搜索栏搜索eclipse 注意:安装过程需要输入用户密码. 二.eclipse的配置 待eclipse安装好以后,在命令行输入whereis eclipse 找到eclipse的安装路径 在文件目录下找到eclipse中的插件目录 然后在打开一个文件目录窗口找到hadoop/contrib/eclipse-plugin中的eclipse插件—