centos7 hadoop2.7.7 分布式环境搭建

一、安装准备(完整版带图片的  找  [email protected])

1.IP配置

打开终端输入ifconfig查看网卡配置名字为 ens33   所以为  本机为ifcfg-ens33(各个版本系统的名字不一样)

在ROOT下通过vim /etc/sysconfig/network-scripts/ifcfg-ens33进入界面

再通过 I 进行文件修改

将BOOTROTO  修改为  static  (静态获取ip)

再添加网关,子网掩码,和dns解析服务器(有没有都行)和静态ip

在vmware 的查看 网关等具体信息

修改完之后

修改完之后  按Esc 退出编辑模式

最后输入:      再输入wq进行保存退出,

输入service network restart对网络服务重启或者 reboot 进行重启

再次输入vim /etc/sysconfig/network-scripts/ifcfg-ens32可看到IP已改为静态了

2.配置主机名

在终端界面输入vim /etc/sysconfig/network

增加两行

NETWORKING=yes

HOSTNAME=hadoop1(主机名,本机为hadoop1)

修改完之后  按Esc 退出编辑模式修改完之后

最后输入:(冒号) 再输入wq进行保存退出

在终端界面输入 vim /etc/hostname

将里面清空输入自己的主机名(本机为 hadoop1)

3.主机映射

终端输入 vim /etc/hosts

将里面修改为

Ip 与 主机名相对应

剩下两台ip便于记忆都是末位+1

(所以需要静态ip保证ip与主机名映射)

4 关闭防火墙(contos 7)systemctl stop firewalld   systemctl disable firewalld

5.为hadoop用户添加sudoers权限(每个节点的用户名必须相同,密码也要相同)

添加sudoers权限

终端输入

添加本机用户(本机为   yzy)

因为是只读文件 退出需要加!   输入  :wq!  保存退出

6.安装jdk

(1)    下载好的JDK包(可以直接从win10桌面拖拽到虚拟机里面

确保文件是完整的 右下方可以看到文件大小与原文件差不多)

放到新创建的hadoop文件夹里

安装之前需要先将自带的open jdk  删除

 

(2)解压 jdk

需要先在终端里  进入压缩包目录

终端输入 tar -zxvf jdk-8u221-linux-x64.tar.gz(jdk-8u221-linux-x64.tar.gz 为压缩包名字  本机为jdk-8u221-linux-x64.tar.gz)

(3)配置环境变量

进入root下输入   vim  /etc/profile

输入指令

export JAVA_HOME=/home/yzy/hadoop/jdk1.8.0_221 (为jdk的路径) (yzy为本机用户不能少 )

export PATH=$JAVA_HOME/bin:$PATH

exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

(4)检查jdk安装成功

终端输入  source /etc/profile

激活环境

然后输入 java -version   进行检查

8.各节点时间同步

1)不能联网的情况下:

手动指定    date –s 时间

2)能联网的情况下:

找一个公网中公用的时间服务器  ntpdate 公网时间服务器地址

ntpdate ntp1.aliyun.com

(本机时间同步不需要进行此步)

二.安装hadoop-2.7.7

1.上传安装包(注意  同jdk安装)

2.解压 tar -zvxf hadoop-2.7.7.tar.gz(先进入路径目录)

解压完成

3.配置环境变量

输入     sudo vi /etc/profile

最后添加

export HADOOP_HOME=/home/yzy/Hadoop/hadoop-2.7.7

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

终端输入  source /etc/profile

激活环境

4.修改文件(6个文件均在同一目录下)

进入   hadoop-2.7.7/etc/hadoop

(1)找到  hadoop-env.sh文件

在最后一行添加 export JAVA_HOME=/home/yzy/hadoop/jdk1.8.0_221

进入 hadoop2.7.7/etc/Hadoop

(2)找到  core-site.xml文件

添加

<property>

                <name>fs.default.name</name>

                <value>hdfs://hadoop01:9000</value>

                     <description>hdfs的主节点</description>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/home/hadoop/hadoopdata</value> //一定要配置在有限权的目录下

                     <description>存放临时文件的目录</description>(可删除)

        </property>

同一目录 hadoop2.7.7/etc/Hadoop

(3)找到 hdfs-site.xml文件

 

添加

 

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/yzy/Hadoop/hadoopdata/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/home/yzy/Hadoop/hadoopdata/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.secondary.http.address</name>

<value>hadoop2:50090</value>

</property>

</configuration>

4)修改yarn-site.xml文件

修改为

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop1</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

(5)修改mapred-site.xml文件

修改为

<configuration>

<property>

     <name>mapreduce.framework.name</name>

     <value>yarn</value>

</property>

 

</configuration>

 

(6)修改slaves文件

修改为

hadoop1

hadoop2

hadoop3

~

5.克隆虚拟机

首先将之前的虚拟机进行关机(可先保存快照避免关机损坏问题)

等待克隆完成

需要几个重复几次

本次我的任务要求为3台,只需要克隆两次就好

分别命名为
hadoop1,hadoop2,hadoop3

需要分别进入两个虚拟机  修改ip和主机名

回到上面步骤进行修改  (注意主机名和ip应该与hosts文件中的映射相对应)

6. ssh 免密登录(每台机器都要执行一遍)

(1)先切换到普通用户:  输入su   yzy(用户名)

(2)生成秘钥          ssh-keygen

3)发送秘钥(公钥)

输入        ssh-copy-id
hadoop1
(主机名)  (这是发送给自己本身)

                     hadoop2/hadoop3

各个节点相互之间都发送公钥(远程登录或者发送  其他虚拟机要同时开启)

远程登录本机

输入   ssh
hadoop1

7.进行格式化

必须在namenode的节点操作

(不要多次初始化 ,否则 参考  DATANODE没有出现

https://blog.csdn.net/chen_xsi/article/details/82717727     )

本机为hadoop1

输入 hadoopnamenode  -format

8.启动

启动集群(三台机器都要开启)

1)启动hdfs                

输入  start-dfs.sh        可以在任意节点执行

 

jps命令查看进程

 

2)启动yarn         (在yarn的主节点执行)

输入      start-yarn.sh 

 

jps查看各节点的进程

9.网页访问

hdfs       hadoop01:50070

yarn       hadoop01:8088

 

 

 

 

 

 

10.关闭

(1)关闭yarn

stop-yarn.sh

(2)关闭hdfs

stop-dfs.sh

原文地址:https://www.cnblogs.com/wsyzyyzy/p/11623749.html

时间: 2024-08-29 00:51:29

centos7 hadoop2.7.7 分布式环境搭建的相关文章

Hadoop2.x伪分布式环境搭建(一)

1.安装hadoop环境,以hadoop-2.5.0版本为例,搭建伪分布式环境,所需要工具包提供网盘下载:http://pan.baidu.com/s/1o8HR0Qu 2.上传所需要的工具包到linux相对就应的目录中 3.接上篇(Linux基础环境的各项配置(三)中最后一部分,需卸载系统自带的jdk,以免后续安装的jdk产生冲突),卸载jdk完成后,安装jdk-7u67-linux-x64.tar.gz版本,上述工具包可下载 (1).解压JDK tar -zxf jdk-7u67-linux

[hadoop]hadoop2.6完全分布式环境搭建

在经过几天的环境搭建,终于搭建成功,其中对于hadoop的具体设置倒是没有碰到很多问题,反而在hadoop各节点之间的通信遇到了问题,而且还反复了很多遍,光虚拟机就重新安装了4.5次,但是当明白了问题之后才发现这都是无用功,有了问题应该找具体的解决方案,并不是完全的重装,这样不会明白问题是怎么解决的,除了费时费力没有多大的用处,接下来就把搭建的过程详细叙述一下. 环境配置: 计算机: CPU-I7 2630QM 6G内存 256G SSD 虚拟机: vmware workstation 11 系

一、Hadoop伪分布式环境搭建

Hadoop 2.x伪分布式环境搭建步骤: 1.修改hadoop-env.sh.yarn-env.sh.mapred-env.sh 方法:使用notepad++(beifeng用户)代开这三个文件 添加代码:export JAVA_HOME=/opt/modules/jdk1.7.0_67 2.修改core-site.xml.hdfs-site.xml.yarn-site.xml.mapred-site.xml配置文件 1)修改core-site.xml <configuration> <

【转】Hadoop HDFS分布式环境搭建

原文地址  http://blog.sina.com.cn/s/blog_7060fb5a0101cson.html Hadoop HDFS分布式环境搭建 最近选择给大家介绍Hadoop HDFS系统,因此研究了一下如何在Linux 下配置一个HDFS Clust.小记一下,以备将来进一步研究和记忆. HDFS简介 全称 Hadoop Distributed File System, Hadoop分布式文件系统. 根据Google的GFS论文,由Doug Cutting使用JAVA开发的开源项目

ubuntu + hadoop2.5.2分布式环境配置

ubuntu + hadoop2.5.2分布式环境配置 我之前有详细写过hadoop-0.20.203.0rc1版本的环境搭建 hadoop学习笔记——环境搭建 http://www.cnblogs.com/huligong1234/p/3533382.html 本篇部分细节就不多说. 一.基础环境准备系统:(VirtualBox) ubuntu-12.04.2-desktop-i386.isohadoop版本:hadoop-2.5.2jdk版本:jdk-6u26-linux-i586.bin

【Hadoop】伪分布式环境搭建、验证

Hadoop伪分布式环境搭建: 自动部署脚本: #!/bin/bash set -eux export APP_PATH=/opt/applications export APP_NAME=Ares # 安装apt依赖包 apt-get update -y && apt-get install supervisor -y && apt-get install python-dev python-pip libmysqlclient-dev -y # 安装pip.python

Hadoop 2.x伪分布式环境搭建测试

Hadoop 2.x伪分布式环境搭建测试 标签(空格分隔): hadoop hadoop,spark,kafka交流群:459898801 1,搭建hadoop所需环境 卸载open JDK rpm -qa |grep java rpm -e –nodeps [java] 1.1,在/opt/目录下创建四个目录: modules/ software/ datas/ tools/ 解压hadoop-2.5.0及jdk-7u67-linux-x64.tar.gz至modules目录下. $tar -

HBase 分布式环境搭建

HBase 分布式环境搭建 一.前期环境 安装概览 IP Host Name Software Node 192.168.23.128 ae01 JDK 1.7, Zookeeper-3.4.5 HMaster 192.168.23.129 ae02 JDK 1.7, Zookeeper-3.4.5    HRegionServer 192.168.23.130 ae03 JDK 1.7, Zookeeper-3.4.5 HRegionServer    若使用虚拟机安装,可以安装samba,

Zookeeper 分布式环境搭建

Zookeeper 分布式环境搭建 一.前期环境 安装概览 IP Host Name     Software     192.168.23.128     ae01 JDK 1.7 192.168.23.129 ae02 JDK 1.7 192.168.23.130 ae03 JDK 1.7 若使用虚拟机安装,可以安装samba, smbfs方面对于文件的控制. 系统环境: ubuntu-12.04.2-server-amd64 安装目录: /usr/local/ae JDK 安装目录: ex