Hadoop 2.6.0 完全分布式部署安装

一、准备软件环境:

hadoop-2.6.0.tar.gz

CentOS-5.11-i386

jdk-6u24-linux-i586

Master:hadoop02     192.168.20.129

Slave01:hadoop03    192.168.20.130

Slave02:hadoop04    192.168.20.131

二、安装JDK、SSH环境和hadoop【先在hadoop02下】

对于JDK

chmod u+x jdk-6u24-linux-i586.bin
./jdk-6u24-linux-i586.bin
mv jdk-1.6.0_24  /home/jdk

注:证明JDK安装成功命令:

#java  -version

对于SSH

ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

注:证明SSH无密码登录成功命令:

#ssh localhost

对于Hadoop

tar -zxvf hadoop-2.6.0.tar.gz
mv hadoop-2.6.0 /home/hadoop

#vim /etc/profile

export JAVA_HOME=/home/jdk
export HADOOP_HOME=/home/hadoop
export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

#source /etc/profile

#vim /etc/hosts

192.168.20.129  hadoop02
192.168.20.130  hadoop03
192.168.20.131  hadoop04

三、配置Hadoop环境【先在hadoop02下】

1)配置文件1:hadoop-env.sh

export JAVA_HOME=/home/jdk

2)配置文件2:yarn-env.sh

export JAVA_HOME=/home/jdk

3)配置文件3:slaves

 hadoop03
 hadoop04

4)配置文件4:core-site.xml

<configuration>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/data/hadoop-${user.name}</value>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://hadoop02:9000</value>
        </property>
</configuration>

5)配置文件5:hdfs-site.xml

<configuration>
        <property>
                <name>dfs.http.address</name>
                <value>hadoop02:50070</value>
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>hadoop02:50090</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
</configuration>

6)配置文件6:mapred-site.xml

<configuration>
        <property>
                <name>mapred.job.tracker</name>
                <value>hadoop02:9001</value>
         </property>
        <property>
                <name>mapred.map.tasks</name>
                <value>20</value>
        </property>
        <property>
                <name>mapred.reduce.tasks</name>
                <value>4</value>
        </property>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>hadoop02:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>hadoop02:19888</value>
        </property>
</configuration>

7)配置文件7:yarn-site.xml

<configuration>
        <property>
                <name>yarn.resourcemanager.address</name>
                <value>hadoop02:8032</value>
        </property>
        <property>
                <name>yarn.resourcemanager.scheduler.address</name>
                <value>hadoop02:8030</value>
        </property>
        <property>
                <name>yarn.resourcemanager.webapp.address</name>
                <value>hadoop02:8088</value>
        </property>
        <property>
                <name>yarn.resourcemanager.resource-tracker.address</name>
                <value>hadoop02:8031</value>
        </property>
        <property>
                <name>yarn.resourcemanager.admin.address</name>
                <value>hadoop02:8033</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
                <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
</configuration>

四、配置hadoop03和hadoop04

他们的配置同hadoop02一样,同理:

     scp -r /root/.ssh/ [email protected]:/root/.ssh/
     scp -r /root/.ssh/ [email protected]:/root/.ssh/
     scp /etc/profile [email protected]:/etc/
     scp /etc/profile [email protected]:/etc/
     scp /etc/hosts [email protected]:/etc/
     scp /etc/hosts [email protected]:/etc/
     scp -r /home/  [email protected]:/home/
     scp -r /home/  [email protected]:/home/

五、启动hadoop集群

1)格式化namenode:

     /home/hadoop/bin/hdfs namenode -format

2)启动hdfs:

     /home/hadoop/sbin/start-dfs.sh

此时在Master上面运行的进程有:namenode secondarynamenode

Slave1和Slave2上面运行的进程有:datanode

3)启动yarn:

     /home/hadoop/sbin/start-yarn.sh

此时在Master上面运行的进程有:namenode secondarynamenode resourcemanager

Slave1和Slave2上面运行的进程有:datanode nodemanaget

4)检查启动结果

查看集群状态:

      hdfs dfsadmin –report

查看HDFS:

      http://192.168.20.129:50070

六、总结实验--错误:

    15/05/11 13:41:55 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

这个错误是/home/hadoop/lib/native/libhadoop.so.1.0.0是64位系统,而我所用是32位系统,

但不影响系统

     #file libhadoop.so.1.0.0
时间: 2024-08-04 03:10:20

Hadoop 2.6.0 完全分布式部署安装的相关文章

Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装

因为个人太懒,所以很多配图没有上传,完整的部署安装教程另外备份了.这里记录一下防止文档丢了   Hadoop1.0.4+Hbase0.94.2+Hive0.9.0 分布式部署安装 目录 1 服务器配置 2 Hadoop安装 3 Hbase安装 4 Hive安装 版本控制信息 版本 日期 拟稿和修改 说明 1.0 2012-11-27 Yoan.Liang 报文标准初稿(内部版本:1000) 1       服务器配置 1.1    下载安装JDK 1.2    修改NameNode与DataNo

菜鸟玩云计算之十八:Hadoop 2.5.0 HA 集群安装第1章

菜鸟玩云计算之十八:Hadoop 2.5.0 HA 集群安装第1章 cheungmine, 2014-10-25 0 引言 在生产环境上安装Hadoop高可用集群一直是一个须要极度耐心和体力的仔细工作. 虽然有非常多文档教会大家怎么一步一步去完毕这样的工作,可是百密也有一疏. 现成的工具不是没有,可是对于我这个喜欢了解细节的人来说,用别人的东西,写的好还能够,写的不好,出了问题,查找错误难之又难.手工安装Hadoop集群须要对Linux有一定的使用经验.对于全然没有接触Linux的人来说.肯定是

_00024 妳那伊抹微笑_云计算之ClouderaManager以及CHD5.1.0集群部署安装文档V1.0

博文作者:妳那伊抹微笑 博客地址:http://blog.csdn.net/u012185296 博文标题:_00024 妳那伊抹微笑_云计算之ClouderaManager以及CHD5.1.0集群部署安装文档V1.0 个性签名:世界上最遥远的距离不是天涯,也不是海角,而是我站在妳的面前,妳却感觉不到我的存在 技术方向:Flume+Kafka+Storm+Redis/Hbase+Hadoop+Hive+Mahout+Spark ... 云计算技术 转载声明:可以转载, 但必须以超链接形式标明文章

VMware 虚拟机安装 hadoop 2.6.0 完全分布式集群

最近连着搭了两次hadoop的集群,搭建的时候也碰到了一些问题,因为之前对linux 不熟悉,经常遇到各种问题和命令忘记写,幸亏有度娘谷哥,这里做一个记录 下次使用的时候用的上 计算机的配置 计算机: G3440 3.3G 双核 8G内存 虚拟机: vmware workstation 12 pro 系统: centos6.5 节点: 192.168.133.33 master.hadoop 192.168.1.151 slave1.hadoop 192.168.1.151 slave2.had

CentOS6.5系统下Hadoop2.6.0完全分布式环境安装与配置信息介绍

文件配置: (注:修改配置文件需要使用root用户,否则修改失败) vim /etc/sysconfig/network 修改主机名为:HOSTNAME=Master vim /etc/sysconfig/network-scripts/ifcfg-eth0 查看IP地址.网关.DNS服务器是否正确 vim /etc/sysconfig/network-scripts/ifcgf-eth0 如果不正确,进行修改 ifconfig 修改后的结果 vim /etc/hosts 配置hosts文件,主

CentOS7上Hadoop 2.6.0集群的安装与配置

转载请注明出处:http://blog.csdn.net/l1028386804/article/details/45740791 1.CentOS7安装 (1)最小化安装CentOS7 (2)配置网络连接 vi/etc/sysconfig/network-scripts/ifcfg-eth0 修改:BOOTPROTO=static ONBOOT=yes 添加:IPADDR= ipaddress(ip地址) NETMASK=subnetmask(子网掩码) GATEWAY=gateway(网关)

hadoop:hadoop2.2.0伪分布式搭建

1.准备Linux环境     1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.68.0 子网掩码:255.255.255.0 -> apply -> ok          回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 ->

Hadoop 2.2.0和HBase-0.98 安装snappy

1.安装须要的依赖包及软件 须要安装的依赖包有: gcc.c++. autoconf.automake.libtool 须要安装的配套软件有: Java6.Maven 关于上面的依赖包,假设在ubuntu下,使用sudo apt-get install * 命令安装.假设在centos下.使用sudo yum install *命令来安装. 关于配套的Java和Maven的安装,參考博文<Linux下Java.Maven.Tomcat的安装>. 2.下载snappy-1.1.2 可供下载的地址

hyperledger fabric 1.0.5 分布式部署 (二)

环境:2台 ubuntu 16.04 角色列表 角色 IP地址 宿主端口 docker端口  peer0.org1.example.com  47.93.249.250  7051  7051  peer1.org1.example.com  47.93.249.250  7051  8051  peer0.org2.example.com  47.93.249.250  7051  9051  peer1.org2.example.com  47.93.249.250  7051  10051