centos7.2+jdk7.9搭建haddoop2.7.0伪分布式环境(亲测成功)

  最近想研究下hadoop,玩一玩大数据,废话不多说,就此开始!

所用环境:

       xshell 5.0(ssh连接工具,支持ftp,可向虚拟机传文件)

     CentOS-7-x86_64-DVD-1511.iso(网上很多资源,可自行搜索)

       hadoop-2.7.0.tar.gz(下载地址:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.7.0/)

     jdk-7u79-linux-x64.tar.gz(下载地址:微盘地址http://vdisk.weibo.com/s/zWP8qIll84xX6,也可以去官网下载)

(1)首先,我们准备centos7.2的iso镜像,并安装vmware软件,使用vmware安装三个centos7.2系统(自己设置root用户密码,添加名为:hadoop用户,密码也为hadoop,安装过程就不细说了),centos7.2安装完成需要依次输入:1/2/q/yes,本人安装的版本为桌面版。

(2)配置网络环境,笔者选用的是仅主机模式;

笔者台式机IP为:192.168.202.1,三台虚拟机IP分别为:192.168.202.101(master)、192.168.202.102(node1)、192.168.202.103(node2),验证方式:保证三个虚拟机之间能互相ping通。

(3)由于在centos7我们需要创建hadoop用户,可以跳过这一步骤,看步骤(4)。若没有按照之前的创建hadoop用户,请继续往下看

  在centos7.2桌面右键Open in Terminal选项,弹出命令终端;输入su  和管理员密码,使用管理员权限;输入:

    groupadd hadoop

    useradd hadoop -g hadoop

然后给hadoop用户设置密码,输入:passwd hadoop,然后自己输入两次设置相同密码,若提示“无效的密码,过于简单”则再次输入确认就行,笔者密码设置为“hadoop”;

(4)给hadoop用户添加管理员权限,输入:visudo,找到 root ALL=(ALL) ALL 这行,然后在这行下面增加一行内容:hadoop ALL=(ALL) ALL (当中的间隔为tab),按ESC输入“:wq”进行保存,修改内容如下图所示:

(5)输入命令:su - hadoop,看是否用hadoop用户登录(用户名/密码:hadoop/hadoop),若能成功登陆,验证通过。

(6)三台虚拟机中均需修改主机名,首先在,master上修改hosts文件(注:IP改成个人设置的虚拟机IP,与主机名对应)

    echo "192.168.202.101 master" >>/etc/hosts

     echo "192.168.202.102 node1" >>/etc/hosts
    echo "192.168.202.103 node2" >>/etc/hosts

然后,同步到node1,node2上的主机,使用命令,输入用户名密码即可。

    scp /etc/hosts node1:/etc/

    scp /etc/hosts node2:/etc/

测试:从三台虚拟机分别ping其他主机的主机名,若能ping通,则验证通过。如下如:

(7)关闭防火墙

    systemctl stop firewalld 
         systemctl disable firewalld

验证方法,输入命令:systemctl status firewalld.service,查看防火墙状态

(8)接下来,为三台虚拟机(master/node1/node2)安装JDK,首先得查看是否安装openjdk,若已安装openjdk,则卸载;未安装,则开始安装JDK。检查命令如下:

        rpm -qa|grep openjdk  #检查openjdk,存在则删除

        yum remove *-openjdk-*  ####删除openjdk#####

使用xshell中的xftp工具将下载的jdk文件拷贝至/usr/目录下,并使用chmod +x /usr/jdk-7u79-linux-x64.tar.gz赋予权限,使用命令解压:

        tar -zxvf /usr/jdk-7u79-linux-x64.tar.gz

修改java环境变量,使用命令: vim /etc/profile,在内容中添加:(输入:‘:wq’----------保存退出)

        JAVA_HOME=/usr/jdk1.7.0_79
        HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.0
        export PATH=$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$PATH

如下图:

输入命令:source /etc profile ,让环境变量生效。验证方法,输入:java -verison,看能否出现相关版本信息。

(9)在master,node1,node2上创建相关目录,(直接复制全部内容执行即可)

     sudo mkdir -p /usr/local/hadoop

      sudo chown -R hadoop:hadoop  /usr/local/hadoop
       sudo mkdir -p /data/hadoop/  #创建 hadoop 数据目录结构 
         sudo chown -R hadoop:hadoop  /data/hadoop/
     mkdir -p /data/hadoop/tmp/  #创建 tmp 
       mkdir -p /data/hadoop/hdfs/  #创建hdfs 
       mkdir -p /data/hadoop/hdfs/data  #创建datanode目录 
    mkdir -p /data/hadoop/hdfs/name  #创建namenode目录 
      mkdir -p /data/hadoop/hdfs/namesecondary

(10)在master,node1,node2上使用ssh免密登录。首先在master上的hadoop用户通过rsa算法生成非对称密钥对:

    ssh-keygen -t rsa

    cd /home/hadoop/.ssh/ 
            cp id_rsa.pub  authorized_keys 
            chmod go-wx  authorized_keys

master上的公钥authorized_keys拷贝到node1,node2上的hadoop用户,先分别创建文件夹:mkdir /home/hadoop/.ssh/ ,然后执行以下命令,输入正确密码即可。

   scp authorized_keys node1:/home/hadoop/.ssh/

   scp authorized_keys node2:/home/hadoop/.ssh/

验证测试:从master端,ssh node1、ssh node2看是否不需要输入密码。

(11)安装hadoop,使用xftp将 tar -zxvf hadoop-2.7.2.tar.gz 拷贝至/usr/local/hadoop/目录下,然后执行

    ar -zxvf hadoop-2.7.2.tar.gz

      chown -R hadoop:hadoop /usr/local/hadoop/

然后输入:vim /etc/profile ,参考步骤8图,验证hadoop路径是否与已安装路径一致。

(12)修改hadoop配置文件,首先进入hadoop目录,

    cd /usr/local/hadoop/hadoop-2.7.0/etc/hadoop/

    cp mapred-site.xml.template mapred-site.xml(ps:hadoop2.7.0版本中不包含mapred-site.xml文件,需要从mapred-site.xml.template复制一份重命名为mapred-site.xml)

    ll(查看目录)

修改五个配置文件,如下:

  1.vim hadoop-env.sh

将文件中java_home路径配置为JDK路径(/usr/jdk1.7.0_79),如下图

  2.vim core-site.xml

将配置文件修改为:

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>

</configuration>

参考下图:

  3.vim  hdfs-site.xml

文件配置如下:

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>

</configuration>

如下图:

  4.vim mapred-site.xml

配置文件如下:

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

如下图:

  5.vim yarn-site.xml

配置文件如下:

<configuration>

<property>

<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

如下图:

(13)格式化hdfs,输入命令:

    cd /usr/local/hadoop/hadoop-2.7.0/

    bin/hdfs namenode -format

(14)启动dfs系统

    cd /usr/local/hadoop/hadoop-2.7.0/sbin/

    ./start-dfs.sh

(15)使用yarn启动tracker

    cd /usr/local/hadoop/hadoop-2.7.0/sbin/

    ./start-yarn.sh

(16)验证伪分布集群是否搭建成功

    1.输入jps,查看是否有如下名称6个进程。

    2.从网页上打开http://192.168.202.101:50070/(192.168.202.101为个人设置的master的IP),看是否页面能访问。如下图:

      3.从网页上打开http://192.168.202.101:50030/(192.168.202.101为个人设置的master的IP),看是否页面能访问。如下图:

    4.若以上均无问题,则表示环境搭建成功!恭喜你!

时间: 2024-11-10 01:23:28

centos7.2+jdk7.9搭建haddoop2.7.0伪分布式环境(亲测成功)的相关文章

在Win7虚拟机下搭建Hadoop2.6.0伪分布式环境

近几年大数据越来越火热.由于工作需要以及个人兴趣,最近开始学习大数据相关技术.学习过程中的一些经验教训希望能通过博文沉淀下来,与网友分享讨论,作为个人备忘. 第一篇,在win7虚拟机下搭建hadoop2.6.0伪分布式环境. 1. 所需要的软件 使用Vmware 11.0搭建虚拟机,安装Ubuntu 14.04.2系统. Jdk 1.7.0_80 Hadoop 2.6.0 2. 安装vmware和ubuntu 略 3. 在ubuntu中安装JDK 将jdk解压缩到目录:/home/vm/tool

Java笔记--CenOS6.5搭建hadoop2.7.1伪分布式环境

一.前言 很以前就搭建过hadoop的伪分布式环境,为了搭建环境特意弄的双系统,还把毕业论文给毁了.不过当时使用的是 hadoop1.x 的,而且因为一些原因,就搭建了环境,而没继续学习了.现在开始,准备好好的学习一下hadoop 二.Hadoop 简介 Hadoop 是Apache软件基金会旗下的一个开源分布式计算平台 是云计算中 PaaS(平台即服务)一层的实现 HDFS 和 MapReduce 共同组成了Hadoop分布式系统体系结构的核心 注:hadoop 具体介绍,留待以后说,现在主要

CentOS5.4 搭建Hadoop2.5.2伪分布式环境

简介: Hadoop是处理大数据的主要工具,其核心部分是HDFS.MapReduce.为了学习的方便,我在虚拟机上搭建了一个伪分布式环境,来进行开发学习. 一.安装前准备: 1)linux服务器:Vmware 上CentOS6.4 mini安装 2) JDK:jdk-7u65-linux-x64.gz 3) SSH:ssh client 4) YUM源配置妥当:yum list查看 5)Hadoop:hadoop-2.5.2.tar.gz 二.环境配置 1)linux环境基本设置: vi /et

_00014 hadoop-2.2.0 伪分布式环境搭建

http://passport.baidu.com/?business&un=%E5%B0%8F%E5%A7%90%5F%E6%B5%B7%E5%AE%81%5F%E6%89%BE%5F#0 http://passport.baidu.com/?business&un=%E5%B0%8F%E5%A7%90%E6%B5%B7%E5%AE%81%E6%8C%89%E6%91%A9%E6%89%BE#0 http://passport.baidu.com/?business&un=%E5

CentOS6.6搭建Hadoop2.5.2伪分布式环境

Hadoop是用作处理大数据用的,核心是HDFS.Map/Reduce.虽然目前工作中不需要使用这个,但是,技多不压身,经过虚拟机很多遍的尝试,终于将Hadoop2.5.2的环境顺利搭建起来了. 首先准备一个CentOS,将主机名改为master,并且在/etc/hosts里面加入master对应的本机ip地址. Linux基本配置 vi /etc/sysconfig/network #编辑文件里面的HOSTNAME=master vi /etc/hosts #添加 本机IP地址   maste

阿里云服务器centos7.3下搭建hadoop伪分布式环境

一.软硬件环境 CentOS 7.2 64位 OpenJDK-1.8.0 Hadoop-2.7 二.安装SSH客户端 安装ssh: yum install openssh-clients openssh-server 安装完成后,使用以下命令测试: ssh localhost输入 root 账户的密码,如果可以正常登录,则说明SSH安装没有问题. 配置SSH免key登陆 hadoop是一个分布式系统,节点间通过ssh通信,为了避免在连接过程中人工输入密码,需要进行ssh免key登陆的配置,由于本

一、Hadoop伪分布式环境搭建

Hadoop 2.x伪分布式环境搭建步骤: 1.修改hadoop-env.sh.yarn-env.sh.mapred-env.sh 方法:使用notepad++(beifeng用户)代开这三个文件 添加代码:export JAVA_HOME=/opt/modules/jdk1.7.0_67 2.修改core-site.xml.hdfs-site.xml.yarn-site.xml.mapred-site.xml配置文件 1)修改core-site.xml <configuration> <

32位Ubuntu12.04搭建Hadoop2.5.1完全分布式环境

准备工作 1.准备安装环境: 4台PC,均安装32位Ubuntu12.04操作系统,统一用户名和密码 交换机1台 网线5根,4根分别用于PC与交换机相连,1根网线连接交换机和实验室网口 2.使用ifconfig查看各PC的IP地址,并确保可以相互ping通 pc1 192.168.108.101 pc2 192.168.108.146 pc3 192.168.108.200 pc4 192.168.108.211 3.安装jdk,下载jdk-7u71-linux-i586.tar.gz,拷贝到你

Hadoop初体验:快速搭建Hadoop伪分布式环境

0.前言 本文旨在使用一个全新安装好的Linux系统从0开始进行Hadoop伪分布式环境的搭建,以达到快速搭建的目的,从而体验Hadoop的魅力所在,为后面的继续学习提供基础环境. 对使用的系统环境作如下说明: 操作系统:CentOS 6.5 64位 主机IP地址:10.0.0.131/24 主机名:leaf 用户名:root hadoop版本:2.6.5 jdk版本:1.7 可以看到,这里直接使用root用户,而不是按照大多数的教程创建一个hadoop用户来进行操作,就是为了达到快速搭建Had