hadoop2.7.0分布式系统搭建(ubuntu14.04)

因为使用需要,在自己小本上建了四个虚拟机,打算搭建一个1+3的hadoop分布式系统。

环境:hadoop2.7.0+ubuntu14.04 (64位)

首先分别为搭建好的虚拟机的各主机重命名

方法:vi /etc/hostname

例如:ubuntu0 ubuntu1 ubuntu2 ubuntu3

一. 配置hosts文件

通过ifconfig命令查看虚拟机的IP,配置hosts文件

方法:vi /etc/hosts

192.168.186.XXX ubuntu0

192.168.186.XXX ubuntu1

192.168.186.XXX ubuntu2

192.168.186.XXX ubuntu3

二. 建立hadoop运行账号

创建hadoop用户组:sudo addgroup hadoop

创建hadoop用户:sudo adduser -ingroup hadoop hadoop

为hadoop用户添加权限

方法:sudo vi /etc/sudoers

添加hadoop ALL=(ALL:ALL)ALL

->切换hadoop用户:su hadoop

三. ssh配置(master-slave免密码登录)

1)每个节点分别产生公私密匙(生成目录为.ssh)

ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa

cd .ssh

cat id_dsa.pub >> authorized_keys

单机测试免密码登录:ssh localhost(或主机名)

退出命令:exit

2)让主节点通过ssh登录子节点

scp [email protected]:~/.ssh/id_dsa.pub ./master_dsa.pub

cat master_dsa.pub >> authorized_keys

在子节点重复上诉操作。

四. 下载并解压hadoop安装包

1安装JAVA环境

sudo apt-get install openjdk-7-jdk

查看安装结果:java -version

2下载hadoop2.7.0

解压:sudo tar xzf hadoop-2.7.0.tar.gz

解压hadoop在/usr/local/hadoop下:

sudo mv hadoop-2.7.0 /usr/local/hadoop

修改权限:sudo chmod 777 /usr/local/hadoop

3配置~/.bashrc

查看java的安装路径:update-alternatives --config java

配置.bashrc文件:vi ~/.bashrc 在末尾添加:

#HADOOP VARIABLES START

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-i386

export HADOOP_INSTALL=/usr/local/hadoop

export PATH=$PATH:$HADOOP_INSTALL/bin

export PATH=$PATH:$HADOOP_INSTALL/sbin

export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_HOME=$HADOOP_INSTALL

export HADOOP_HDFS_HOME=$HADOOP_INSTALL

export YARN_HOME=$HADOOP_INSTALL

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"

#HADOOP VARIABLES END

执行source ~/.bashrc ,使添加的环境变量生效。

4.编辑/usr/local/hadoop/etc/hadoop/hadoop-env.sh

添加

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

export HADOOP_HOME=/usr/local/hadoop

export YARN_HOME=/usr/local/hadoop

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

5.编辑/usr/local/hadoop/etc/hadoop/yarn-env.sh

export YARN_CONF_DIR="${YARN_CONF_DIR:-$HADOOP_YARN_HOME/etc/hadoop}"
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

五. 配置namenode,修改site文件(/usr/local/hadoop/etc/hadoop/)

1、配置core-site.xml

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

2、yarn-site.xml

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

3、创建mapred-site.xml,

cp mapred-site.xml.template mapred-site.xml

并添加

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

4、配置hdfs-site.xml

cd /usr/local/hadoop/
mkdir hdfs
mkdir hdfs/data
mkdir hdfs/name

编辑打开hdfs-site.xml

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/hadoop/hdfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/hadoop/hdfs/data</value>

</property>

六. 配置masters和slaves文件

在两个文件中分别填入适合的主机名

七. 向节点复制hadoop

scp -r ./hadoop ubuntu1:~

scp -r ./hadoop ubuntu2:~ 

scp -r ./hadoop ubuntu3:~

八、格式化namenode

hdfs namenode -format 

注意:上面只要出现“successfully formatted”就表示成功了。

九.启动hadoop

浏览器打开 http://localhost:50070/,会看到hdfs管理页面

浏览器打开http://localhost:8088,会看到hadoop进程管理页面

时间: 2024-08-28 00:41:45

hadoop2.7.0分布式系统搭建(ubuntu14.04)的相关文章

Caffe系统搭建 —— Ubuntu14.04 + CUDA7.0 + opencv3.0

从Hinton在science上发表深度学习训练开创新的文章以来,深度学习火了整整有3年多,而且随着新的硬件和算法的提出,深度学习正在应用于越来越多的领域,发挥其算法的优势. 实验室并没有赶上第一波深度学习热,但是让人高兴的是最近终于配了一台超级电脑,虽说和谷歌.百度几百个上千个GPU跑算法的设备不能比,但是好歹终于有了搭建自己的深度学习平台,想想还很是兴奋.最近这几天忙着搭建深度学习平台,把现在最火的Caffe框架代码跑通,从最初对ubuntu的菜鸟到现在顺利搭建起深度学习平台,中间走了很多弯

1. Review Board 环境搭建 Ubuntu14.04

*各种数据库支持,各种服务支持都不列了. 只记录本服务使用的支持 各服务版本: reviewboard 2.5.7 mysql 5.6 python2.7(只支持2系列版本) Ubuntu14.04 命令行中执行如下命令: sudo apt-get install mysql-server mysql-client sudo apt-get install libmysqlclient-dev sudo easy_install mysql-python sudo apt-get install

搭建ubuntu14.04服务器必备环境

1.  设置网络 设置网络时,一定要设置好网卡,第一个网卡一定要设置为'br0'(如下图),设置为其他的上不去网. 修改网络配置文件,命令:sudo gedit /etc/network/interfaces 单个网卡配置文件 # interfaces(5) file used by ifup(8) and ifdown(8) auto lo iface lo inet loopback #设置本地环回 auto eth0 iface eth0 inet static #设置静态IP addre

Hadoop2.6.0在Ubuntu Kylin14.04上的配置

最近几天在忙参加一个云计算比赛,之前也在Ubuntu上配成功过hadoop,不过是按照书上讲的,一步一步来的.因此,印象不深,对自己的帮助也不大.这次趁着机会,自己练了两遍配置过程,感觉收获比较丰富,就写一篇文章小结一下. 首先要把给我很多指导的一个网址贴出来:厦门大学数据库实验室博客 http://dblab.xmu.edu.cn/blog/.作为一个数据库实验室,能有精力和热情做好这么一个网站,真的很崇拜他们.另外,写着篇文章的另一个目的是网上不同版本的ubuntu配置Hadoop文章实在太

SVN服务器搭建01---Apache2搭建(Ubuntu14.04)

概述 SVN服务器有两种形式,一种是通过Apache方式来实现,这样子我们就可以通过浏览器来访问;第二种是安装SVN服务器软件 这篇博客主要介绍如何通过Apache来搭建SVN服务器 环境描述: Ubuntu DeskTop 14.04 svn 1.8 apache2 1.安装apache2和svn sudo apt-get install apache2 sudo apt-get install subversion sudo apt-get install libapache2-svn 完成

hadoop2.6.0环境搭建

官网2.6.0的安装教程:http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/SingleCluster.html 安装虚拟机(NAT,桥接,仅主机三种网络模式,vmwaretools,主机共享文件)系统安装(ifconfig,环境变量,hosts,hostname,ssh无密码登陆) jdk安装(环境变量) hadoop(hadoop-env.sh,mapred-env.sh,  mapred-site.

SVN服务器搭建02---SVN服务器软件搭建(Ubuntu14.04)

概述 上篇博客说了apache2搭建svn服务器,通过http就能访问.现在我们来学习下如何通过svn服务器软件来启动svn服务 1.修改passwd文件 上篇博客之所以复制passwd命名为http_passwd,因为SVN服务器软件用户配置文件和http形式的有点不同.这里我到passwd文件添加用户 2.修改svnserve.conf 首先要修改svn库下的conf文件的svnserve.conf,这个文件是svn服务器软件对于每个svn库的配置文件 把下面的4个选项前面的#号去掉 ano

Caffe+Ubuntu14.04+CUDA7.5 环境搭建(新人向)指南

序 本文针对想学习使用caffe框架的纯新手,如果文中有错误欢迎大家指出. 由于我在搭建这个环境的时候参考了许多网上的教程,但是没有截图,所以文中图片大多来源于网络. 本文没有安装matlab的步骤,因此需要安装并配置matlab的同学请百度matlab安装. 1. 在Win10环境下搭建Ubuntu14.04双系统 操作事先请准备好: 一个空的U盘,最好大于4G. 去Ubuntu官网下载一个Ubuntu14.04的iso镜像文件,注意要64位系统. 下载一些用的到的小工具,如EsayBCD,u

搭建hadoop2.6.0 HA及YARN HA

以前用hadoop2.2.0只搭建了hadoop的高可用,但在hadoop2.2.0中始终没有完成YARN HA的搭建,直接下载了hadoop最新稳定版本2.6.0完成了YARN HA及HADOOP HA的搭建流程,没有仔细看hadoop的官方文档,貌似hadoop2.2.0不支持YARN HA,如果说错了谢谢指正呀,下面总结一下我的搭建流程: 首先完成虚拟机的搭建: 机器名 IP 安装软件 运行进程 namenode1 192.168.3.161 hadoop NameNode.DFSZKFa