hadoop集群安装

环境:

centos6 32位 hadoop2.8.4  jdk1.8(此版本运行hadoop时会警告可无视)hadoop用户(非root普通用户)   主机ip:10.10.10.10  slave主机ip:20.20.20.20

请务牢记上述环境!!!  另外除非表明使用root用户外,皆用hadoop用户执行命令

hadoop2.x与1.x结构上发生了一些变化

搭建共6步

1.配置java环境

2.配置master主机与各slave主机的ssh通信

3.下载、解压hadoop压缩包,并配置hadoop环境变量

4.配置hadoop中7大配置文件

5.格式化 namenode

6. 启动

3.下载、解压hadoop压缩包,并配置hadoop环境变量

从hadoo官网下载压缩包 hadoop2.8.4.tar.gz

①切换至root用户或使用sudo命令执行以下3条命令:

mkdir /usr/hadoop  新建hadoop上层目录tar -zxvf hadoop2.8.4.tar.gz -C /usr/hadoop/  解压至新建目录chown -R hadoop:hadoop /usr/hadoop  将/usr/hadoop用户权限转移给hadoop组的hadoop用户

②继续以root用户或使用sudo命令执行:

vi /etc/profile  配置hadoop环境变量

③在profile文件的末尾添加2行:

export HADOOP_HOME=/usr/hadoop/hadoop2.8.4
export PATH=$PATH:$HADOOP_HOME/bin

如果你第①步执行没有问题的话,此时在 /usr/hadoop/ 目录下存在一个 hadoop2.8.4 文件夹

④检查环境变量

source /etc/profile
reboot  重启(可选),博主搭建时环境变量始终未刷新,无奈重启...echo $HADOOP_HOME  这句命令会在终端输出hadoop的解压目录 /usr/hadoop/hadoop2.8.4

4.配置hadoop中7大配置文件

这一步参考了以下2个网址:

Hadoop2.8 安装心得

Hadoop 2.8集群安装及配置记录

① 修改 /usr/hadoop/hadoop2.8.4/etc/hadoop-env.sh 与 yarn-env.sh 2个文件中的JAVA路径

如果改行前面有注释#,去掉后修改保存

export JAVA_HOME=本机java安装(解压)目录

②修改 /usr/hadoop/hadoop2.8.4/etc/hadoop/slave 文件

20.20.20.20

一行一个slave主机ip,可以用主机名代替,但是前提是 /etc/hosts 文件中有相应的映射信息,这里是新版本hadoop,配置文件中没有master文件

③ /usr/hadoop/hadoop2.8.4/etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/hadoop/hadoop2.8.4/tmp</value>  <!-- 需要自己在hadoop2.8.4目录中新建tmp文件夹 -->
        <final>true</final>
    </property>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://10.10.10.10:9000</value>      <!-- 这里填的是master主机的ip(或主机名) -->
            <final>true</final>
    </property>
    </configuration> 

④ /usr/hadoop/hadoop2.8.4/etc/hadoop/hdfs-site.xml

 <configuration>      
         <property>
             <name>dfs.http.address</name>
             <value>10.10.10.10:50070</value>    <!--依旧是master主机ip -->
        </property>
        <property>
            <name>dfs.replication</name>
            <value>1</value>   <!-- slave主机数量,我这里只有1台,就填1 -->
        </property>
        <property>
             <name>dfs.namenode.secondary.http-address</name>
             <value>10.10.10.10:50090</value>
        </property>
    </configuration>

⑤ /usr/hadoop/hadoop2.8.4/etc/hadoop/mapred-site.xml

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>10.10.10.10:9001</value>
    </property>
    <property>
        <name>mapred.map.tasks</name>
        <value>20</value>
    </property>
    <property>
        <name>mapred.reduce.tasks</name>
        <value>4</value>
    </property>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>10.10.10.10:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>10.10.10.10:19888</value>
    </property>
</configuraion>

⑥ /usr/hadoop/hadoop2.8.4/etc/hadoop/yarn-site.xml

<property>
  <name>yarn.resourcemanager.address</name>
  <value>10.10.10.10:18040</value>
</property>
<property>
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>10.10.10.10:18030</value>
</property>
<property>
  <name>yarn.resourcemanager.webapp.address</name>
  <value>10.10.10.10:18088</value>    <!-- 记住这个ip,用于浏览器访问:10.10.10.10:18080/cluster/ -->
</property>
<property>
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value>10.10.10.10:18025</value>
</property>
<property>
  <name>yarn.resourcemanager.admin.address</name>
  <value>10.10.10.10:18141</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration> 

5.格式化 namenode

如果hadoop的环境变量已经配好了,那么就可以在任意地方执行以下命令

hadoop namenode -format

6.启动

执行命令

cd sbin/  进入hadoop安装(解压)目录的sbin目录下./start-all.sh  启动hadoop

slave主机的配置与master主机是一样的,可以直接将以上配置过的文件复制粘贴过去,就可以启动了

就到这里吧......世界杯开始了开始了!!!

原文地址:https://www.cnblogs.com/linghaoxinpian/p/9185149.html

时间: 2024-10-13 07:55:50

hadoop集群安装的相关文章

Apache Hadoop集群安装(NameNode HA + SPARK + 机架感知)

1.主机规划 序号 主机名 IP地址 角色 1 nn-1 192.168.9.21 NameNode.mr-jobhistory.zookeeper.JournalNode 2 nn-2 192.168.9.22 Secondary NameNode.JournalNode 3 dn-1 192.168.9.23 DataNode.JournalNode.zookeeper.ResourceManager.NodeManager 4 dn-2 192.168.9.24 DataNode.zook

Hadoop集群安装配置文档

Hadoop集群安装配置文档 日期 内容 修订人 2015.6.3 文档初始化 易新             目录 1 文档概要... 5 1.1软件版本... 5 1.2机器配置... 5 2 虚拟机配置... 5 2.1新建虚拟机... 5 2.2虚拟网络配置... 8 3 CentOS安装及配置... 9 3.1系统安装... 9 3.2系统配置... 10 3.2.1防火墙配置... 10 3.2.2 SElinux配置... 10 3.2.3 IP配置... 11 3.2.4安装vim

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS

摘自:http://www.powerxing.com/install-hadoop-cluster/ 本教程讲述如何配置 Hadoop 集群,默认读者已经掌握了 Hadoop 的单机伪分布式配置,否则请先查看Hadoop安装教程_单机/伪分布式配置 或 CentOS安装Hadoop_单机/伪分布式配置. 本教程适合于原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1 等版本,主要参考了官方安装教程,步骤详细,辅以适当说明,保证按照步骤来,都能顺利安装并运行 Ha

Hadoop集群安装-CDH5(5台服务器集群)

CDH5包下载:http://archive.cloudera.com/cdh5/ 架构设计: 主机规划: IP Host 部署模块 进程 192.168.254.151 Hadoop-NN-01 NameNode ResourceManager NameNode DFSZKFailoverController ResourceManager 192.168.254.152 Hadoop-NN-02 NameNode ResourceManager NameNode DFSZKFailoverC

基于Cloudera Manager 5和CDH5(版本5.3.3)的Hadoop集群安装

一.Cloudera Manager/CDH5 1.关于cloudera manager和CDH是什么,这里不做详细介绍了.有官网和百科介绍. 附上官网地址:cloudera manager 2.官网的安装指南 官方文档提供了三种安装方式:在线自动安装/手动安装包安装/手动使用cloudera manager管理安装 此处使用第三种方式安装hadoop集群. 二.环境规划 1.系统:CentOS 6.4_x86 master:4G内存,硬盘尽量大容量 slave1:2G内存,硬盘尽量大容量 sl

Hadoop 集群安装(主节点安装)

1.下载安装包及测试文档 切换目录到/tmp view plain copy cd /tmp 下载Hadoop安装包 view plain copy wget http://192.168.1.100:60000/hadoop-2.6.0-cdh5.4.5.tar.gz 下载JDK安装包 view plain copy wget http://192.168.1.100:60000/jdk-7u75-linux-x64.tar.gz 下载实验测试数据 view plain copy wget h

Hadoop集群安装--Ubuntu

我家宝最近在自学Hadoop,于是乎跟着一起玩玩,在此为她整理一篇基础搭建的博客,希望对她能有所帮助.同样,开始之前先来了解下,什么是Hadoop. Hadoop是一个由Apache基金会所开发的分布式系统基础架构.它是根据Google公司发表的MapReduce和Google文件系统的论文自行实现而成.Hadoop框架透明地为应用提供可靠性和数据移动.它实现了名为MapReduce的编程范式:应用程序被分区成许多小部分,而每个部分都能在集群中的任意节点上运行或重新运行. Hadoop实现了一个

Apache Hadoop 集群安装文档

简介: 软件:jdk-8u111-linux-x64.rpm.hadoop-2.8.0.tar.gz http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz 系统:CentOS 6.8 x64 主机列表及配置信息: master.hadoop datanode[01:03].hadoop CPU: 8 4 MEM: 16G 8G DISK: 100G*2 100G*2 一.系统初始化

Hadoop集群安装-CDH5(3台服务器集群)

CDH5包下载:http://archive.cloudera.com/cdh5/ 主机规划: IP Host 部署模块 进程 192.168.107.82 Hadoop-NN-01 NameNode ResourceManager NameNode DFSZKFailoverController ResourceManager 192.168.107.83 Hadoop-DN-01 Zookeeper-01 DataNode NodeManager Zookeeper DataNode Nod