分布式Hadoop安装

本文旨在介绍通过两台物理节点,实现完全分布式hadoop程序的部署

writen by [email protected]

环境介绍:

















主机名

机器IP

用途

描述

Hadoop0

192.168.80.101

Namenode

secondaryNamenode

jobTracker

CentOS6.4

jdk-6u24-linux-i586

hadoop-1.1.2

Hadoop1

192.168.80.102

Datanode

taskTracker

CentOS6.4

jdk-6u24-linux-i586

hadoop-1.1.2

1、 安装JDK

a)         把 jdk 移动到/usr/local
目录下。进入到/usr/local 目录下,通过“.”解压文件

i.             
./jdk-6u24-linux-i586.bin

b)        
将解压后的目录jdk1.6.0_24重命名为jdk

i.             
mv jdk1.6.0_24/ jdk

c)        
将jdk配置到环境变量中,设置全局环境变量,文件“/etc/profile”后添加:

i.             
export JAVA_HOME=/usr/local/jdk

ii.             
export PATH=.:$PATH:$JAVA_HOME/bin

d)         执行Source命令

i.             
#source /etc/profile

e)        
“export”是关键字,用于设置环境变量。我们设置了两个环境变量,一个是 JAVA_HOME,一个是
PATH。对于环境变量的引用,使用“$”,多个环境变量之间的连接,使用“:”。大家在设置环境变量的时候,一定与 windows
下的操作区分开,不要混淆。命令“source”是为了让文件中的设置立刻生效。

f)          执行java
–version命令

2、 关闭防火墙

a)         执行Setup命令

b)         选择“Firewall
configuration”,然后按回车;

c)        
关闭防火墙,只需要按一下空格键,符号“*”就会消失。最后使用“tab”键移动到“OK”,回车,一步步退出就行了。

d)         检查防火墙是否关闭命令“service
iptables status”

3、 设置DNS解析

a)        
打开etc/sysconfig/network

b)        
修改为“HOSTNAME=hadoop0”(hadoop1)

c)         reboot

4、
Hadoop0设置SSH免密码登录

a)         ssh-keygen –t rsa

b)         三次回车

c)         cd .ssh/

d)         ls –l

e)         cp id_rsa.pub
authorized_keys

f)          ssh localhost验证

5、
Hadoop1设置SSH免密码登录

a)         同上

6、
配置hadoop0和hadoop1的/etc/hosts

a)         每个节点均添加了所有节点的 ip
与主机名映射

b)         192.168.80.101
     hadoop0

c)        
192.168.80.102        hadoop1

7、 集群间SSH免密码登录

a)         在hadoop0执行命令:ssh-copy-id
-i ~/.ssh/id_rsa.pub hadoop1

b)         在hadoop1执行命令:ssh-copy-id
-i ~/.ssh/id_rsa.pub hadoop0

8、
Hadoop压缩包上传至hadoop0节点的/usr/local目录下

9、 Hadoop0节点解压缩hadoop

a)         tar -xzvf
hadoop-1.1.2.tar.gz

10、Hadoop0节点解压缩后的文件夹重命名

a)         #mv hadoop-1.1.2
hadoop

11、 设置Hadoop0节点的环境变量

alias cdha=’cd /usr/local/hadoop’

export JAVA_HOME=/usr/local/jdk

export HADOOP_HOME=/usr/local/hadoop

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

12、修改hadoop0节点的Hadoop配置文件

a)         修改hadoop-env.sh

第9行改为:export JAVA_HOME=/usr/local/jdk(去掉前面的#)

b)        
修改hadoop核心配置文件core-site.xml


<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop0:9000</value>
<description>change your own hostname</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>

c)        
修改hdfs配置文件hdfs-site.xml


<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

d)        
修改MapReduce 配置文件 mapred-site.xml


<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop0:9001</value>
<description>change your own hostname</description>
</property>
</configuration>

13、在hadoop0节点执行命令,将hadoop0节点的hadoop文件夹复制到hadoop1节点

a)         scp -rq /usr/local/hadoop
hadoop1:/usr/local

b)         scp -rq /etc/profile
hadoop1:/etc

c)         ssh hadoop1

d)         exit

14、配置hadoop0节点的集群核心文件slaves

a)        
打开/conf/slaves文件后,修改为hadoop1.

b)         修改后,意味着在节点
hadoop1运行datanode和tasktracker节点.

15、格式化文件系统

a)         hadoop namenode
–format

16、启动集群

a)         在节点 hadoop0
中执行命令:start-all.sh

17、Hadoop0节点jps验证,SecondaryNameNode、NameNode、JobTracker,处于运行状态。

18、Hadoop1节点jps验证,DataNode、TaskTracker,处于运行状态。

 

分布式Hadoop安装,布布扣,bubuko.com

时间: 2024-10-24 23:20:43

分布式Hadoop安装的相关文章

分布式Hadoop安装(二)

二.集群环境安装Zookeeper 1.         hadoop0,namenode机器下,配置zookeeper,先解压安装包. 使用命令:tar -zxvf zookeeper-3.4.4.tar.gz 2.         Hadoop0,配置zookeeper的环境变量 a)         打开/etc/profile,增加并修改如下内容 export ZOOKEEPER_HOME=/usr/local/zookeeper export PATH=.:$HADOOP_HOME/b

集群分布式 Hadoop安装详细步骤

集群分布式Hadoop系统安装及测试 本系统一共有三个节点,一个namenode,两个datanode,IP和主机名对应如下: 192.168.1.19           namenode 192.168.1.7             datanode1 192.168.1.20           datanode2 1.安装配置 1).安装配置JDK,在三个节点都需要安装,下面操作在三个节点上都需要执行: a.下载jdk-6u45-linux-x64.bin文件,将下载的文件放到/usr

Hadoop学习第四次:伪分布式Hadoop安装

1.1 设置ip地址 执行命令 service network restart 验证: ifconfig1.2 关闭防火墙 执行命令 service iptables stop 验证: service iptables status1.3 关闭防火墙的自动运行 执行命令 chkconfig iptables off 验证: chkconfig --list | grep iptables1.4 设置主机名 执行命令 (1)hostname chaoren (2)vi /etc/sysconfig

转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到,官方网站也有 Hadoop 安装配置教程,但由于对 Linux 环境不熟悉,书上跟官网上简略的安装步骤新手往往 Hold 不住.加上网上不少教程也甚是坑,导致新手折腾老几天愣是没装好,很是打击学习热情. 本教程适合于原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1

Hadoop系列之hdfs(分布式文件系统)安装配置

Hadoop系列之hdfs(分布式文件系统)安装配置环境介绍:     ip                        节点192.168.3.10      hdfs-master192.168.3.11      hdfs-slave1192.168.3.12      hdfs-slave21.在所有机器添加hosts192.168.3.10      hdfs-master192.168.3.11      hdfs-slave1192.168.3.12      hdfs-slav

Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

参见:http://www.powerxing.com/install-hadoop/ 完全拷贝至上面网址 环境 本教程使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04 也行,32位.64位均可),请自行安装系统. 如果用的是 RedHat/CentOS 系统,请查看相应的CentOS安装Hadoop教程_单机伪分布式配置. 本教程基于原生 Hadoop 2,在 Hadoop 2.6.0 (stable) 版本下验证通过,可适合任何 Hadoop 2.x.y 版本,

Hadoop:Hadoop单机伪分布式的安装和配置

http://blog.csdn.net/pipisorry/article/details/51623195 因为lz的linux系统已经安装好了很多开发环境,可能下面的步骤有遗漏. 之前是在docker中配置的hadoop单机伪分布式[Hadoop:Hadoop单机伪分布式的安装和配置 ],并且在docker只有root用户,所有没有权限问题存在. 这里直接在linux下配置,主要是为了能用netbeans ide调试hadoop程序,并且使用的用户就是开机时登录的用户pika. 本教程配置

实战1 伪分布式Hadoop单节点实例 CDH4集群安装 Hadoop

Hadoop由两部分组成 分布式文件系统HDFS 分布式计算框架MapReduce 其中分布式文件系统(HDFS)主要用于大规模数据的分布式存储,而MapReduce则构建在分布式文件系统之上,对于存储在分布式文件系统中的数据进行分布式计算. 详细的介绍个节点的作用 NameNode: 1.整个Hadoop集群中只有一个NameNode.它是整个系统的中枢,它负责管理HDFS的目录树和相关文件 元数据信息.这些信息是以"fsimage (HDFS元数据镜像文件)和Editlog(HDFS文件改动

Hadoop伪分布式模式安装

<Hadoop权威指南(第2版)>来讲,伪分布式(pseude-distributed model)是指Hadoop守护进程运行在本地机器上,模拟一个小规模的集群. 这种模式也是在一台单机上运行,但用不同的Java进程模仿分布式运行中的各类结点(NameNode,DataNode,JobTracker,TaskTracker,SecondaryNameNode) Hadoop安装 参考: http://www.cnblogs.com/xs104/p/4484268.html 配置Hadoop