hadoop2.7.3

环境:centos6.7,hadoop2.7.3,虚拟机VMware

  1. 下载hadoop:http://apache.fayea.com/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz
  2. namendoe 192.168.137.9 ; secondnode 192.168.137.15 ; datanode 192.168.137.16
  3. 修改三台主机的/etc/hosts,将namenode,secondnode,datanode信息分别加入
[[email protected] ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.137.9 namenode
192.168.137.15 secondnode
192.168.137.16 datanode

4.官网下载jdk:jdk-8u77-linux-x64.tar.gz

5.安装java

①yum remove java -y

②tar zxvf jdk-8u77-linux-x64.tar.gz

③mv jdk1.8.0_77 /usr/local/java

④vi /etc/profile

export JAVA_HOME=/usr/local/java
exportCLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin

⑤source /etc/profile

[[email protected] src]# java -version
java version "1.8.0_77"
Java(TM) SE Runtime Environment (build 1.8.0_77-b03)
Java HotSpot(TM) 64-Bit Server VM (build 25.77-b03, mixed mode)

三台主机做以上命令操作。

6.环境变量优化:

cat << EOF > ~/.toprc
RCfile for "top withwindows"   # shameless braggin‘
Id:a, Mode_altscr=0, Mode_irixps=1,Delay_time=3.000, Curwin=0
Def fieldscur=AEHIOQTWKNMBcdfgjplrSuvyzX
         winflags=32569, sortindx=10, maxtasks=0
         summclr=1, msgsclr=1, headclr=3,taskclr=2
Job fieldscur=ABcefgjlrstuvyzMKNHIWOPQDX
winflags=62777, sortindx=0, maxtasks=0
summclr=6, msgsclr=6, headclr=7, taskclr=6
Mem fieldscur=ANOPQRSTUVbcdefgjlmyzWHIKX
winflags=62777, sortindx=13, maxtasks=0
summclr=5, msgsclr=5, headclr=4, taskclr=5
Usr fieldscur=ABDECGfhijlopqrstuvyzMKNWX
winflags=62777, sortindx=4, maxtasks=0
summclr=3, msgsclr=3, headclr=2, taskclr=3
EOF

继续环境变量优化:

 vim /etc/security/limits.conf
hadoop           -       nofile          32768
hadoop           -       nproc          32000

继续环境变量优化:

vim /etc/pam.d/system-auth
auth       required      pam_limits.so

所有节点操作。

7.创建hadoop用户

useradd -u 5000 hadoop && echo"hadoop"|passwd --stdin hadoop
mkdir /data &&chown -R hadoop.hadoop /data

所有节点操作

8.免密登录

①su - hadoop

②ssh-keygen

③在namenode上:

vi .ssh/authorized_keys

将所有节点的.ssh/id_rsa.pub 内容加入,然后分发给各个节点。

chmod 600 .ssh/authorized_keys

9.namenode操作:

解压hadoop,

tar zxvf hadoop-2.7.3.tar.gz

移动目录:

mv hadoop-2.7.3 /home/hadoop/hadoop2.7.3

10.每个节点操作:

vim /home/hadoop/.bash_profile

修改:

修改:
export HADOOP_HOME=/home/hadoop/hadoop2.7.3
export PATH=$PATH:$HADOOP_HOME:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_HOME_WARN_SUPPRESS=1
export PATH
$source /home/hadoop/.bash_profile

11.namenode上操作:

$cd /home/hadoop/hadoop2.7.3/etc/hadoop
$vim hadoop-env.sh

修改:

export JAVA_HOME=/usr/local/java

增加:

export HADOOP_PREFIX=/home/hadoop/hadoop2.7.3
export HADOOP_HEAPSIZE=15000
$vim yarn-env.sh

修改:

export JAVA_HOME=/usr/local/java
$vim mapred-env.sh

修改:

export JAVA_HOME=/usr/local/java
$ vi hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
        <name>dfs.namenode.http-address</name>
        <value>namenode:50070</value>
        <description> NameNode 通过当前参数 获得 fsimage 和 edits </description>
  </property>
  <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>secondnode:50090</value>
        <description> SecondNameNode 通过当前参数 获得最新的 fsimage </description>
    </property>

    <property>
        <name>dfs.replication</name>
        <value>2</value>
        <description> 设定 HDFS 存储文件的副本个数,默认为3 </description>
    </property>
   <property>
        <name>dfs.namenode.checkpoint.dir</name>
        <value>file:///home/hadoop/hadoop2.7.3/hdfs/namesecondary</value>
        <description> 设置 secondary 存放 临时镜像 的本地文件系统路径,如果这是一个用逗号分隔的文件列表,则镜像将会冗余复制到所有目录,只对 secondary 有效 </description>
    </property>

    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:///data/work/hdfs/name/</value>
        <description> namenode 用来持续存放命名空间和交换日志的本地文件系统路径 </description>
    </property>

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///data/work/hdfs</value>
        <description> DataNode 在本地存放块文件的目录列表,用逗号分隔 </description>
    </property>

    <property>
        <name>dfs.stream-buffer-size</name>
        <value>131072</value>
        <description> 默认是4KB,作为hadoop缓冲区,用于hadoop读hdfs的文件和写
hdfs的文件,还有map的输出都用到了这个缓冲区容量,对于现在的硬件很保守,可以设置为128k(131072),甚至是1M(太大了map和reduce任务可能会内存溢出) </description>
    </property>
    <property>
        <name>dfs.namenode.checkpoint.period</name>
        <value>3600</value>
        <description> 两次 checkpoints 之间的间隔,单位为秒,只对 secondary 有效 </description>
    </property>
</configuration>

具体可以查看官网资料:http://hadoop.apache.org/docs/r2.7.3/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

$vim mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
</property>
</configuration>
$vim yarn-site.xml

修改:

<?xml version="1.0"?>
<configuration>
<property>
 <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
</configuration>
$ vi core-site.xml

修改:

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
   <name>fs.defaultFS</name>
   <value>hdfs://namenode:9000/</value>
   <description> 设定 namenode 的 主机名 及 端口 </description>
</property>

<property>
   <name>hadoop.tmp.dir</name>
   <value>/home/hadoop/tmp</value>
   <description> 存放临时文件的目录 </description>
</property>
</configuration>

具体可参考:http://hadoop.apache.org/docs/r2.7.3/hadoop-project-dist/hadoop-common/core-default.xml

12.所有节点上新建目录

$mkdir /home/hadoop/tmp
$mkdir /data/work/hdfs/namesecondary -p

13.namenode上

$start-all.sh
时间: 2024-12-31 03:59:56

hadoop2.7.3的相关文章

windows下eclipse+hadoop2

windows下eclipse+hadoop2.4开发手册 1.解压下载的hadoop2.4,到任意盘符,例如D:\hadoop-2.4.0. 2.设置环境变量 ①新建系统变量,如下所示. ②将新建的HADOOP_HOME变量"%HADOOP_HOME%\bin;"加入到PATH变量里,如下图. 3.将hadoop服务器下的hadoop目录下etc/hadoop目录下的以下四个文件拷贝到自己开发的电脑相应目录下,如下图所示. 4.如果hadoop服务器中上述四个文件配置的是机器名,请在

Hadoop-2.2.0中文文档—— Common - CLI MiniCluster

目的 使用 CLI MiniCluster, 用户可以简单地只用一个命令就启动或关闭一个单一节点的Hadoop集群,不需要设置任何环境变量或管理配置文件. CLI MiniCluster 同时启动一个 YARN/MapReduce 和 HDFS 集群. 这对那些想要快速体验一个真实的Hadoop集群或是测试依赖明显的Hadoop函数的非Java程序 的用户很有用. Hadoop Tarball 你需要从发布页获取tar包.或者,你可以从源码中自己编译. $ mvn clean install -

【甘道夫】Ubuntu14 server + Hadoop2.2.0环境下Sqoop1.99.3部署记录

第一步.下载.解压.配置环境变量: 官网下载sqoop1.99.3 http://mirrors.cnnic.cn/apache/sqoop/1.99.3/ 将sqoop解压到目标文件夹,我的是 /home/fulong/Sqoop/sqoop-1.99.3-bin-hadoop200 配置环境变量: export SQOOP_HOME=/home/fulong/Sqoop/sqoop-1.99.3-bin-hadoop200 export PATH=$PATH:$SQOOP_HOME/bin

Hadoop1.X 与 Hadoop2.X区别及改进

一:Haddop版本介绍 0.20.x版本最后演化成了现在的1.0.x版本 0.23.x版本最后演化成了现在的2.x版本 hadoop 1.0 指的是1.x(0.20.x),0.21,0.22 hadoop 2.0 指的是2.x,0.23.x CDH3,CDH4分别对应了hadoop1.0 hadoop2.0 二.Hadoop1.X与Hadoop2.X区别 1.HDFS的改进 1.1 Hadoop1.x时代的HDFS架构 在Hadoop1.x中的NameNode只可能有一个,虽然可以通过Seco

hadoop2.6.0实践:002 检查伪分布式环境搭建

1.检查网络配置[[email protected] ~]# cat /etc/sysconfig/networkNETWORKING=yesHOSTNAME=hadoop-masterGATEWAY=192.168.126.2 [[email protected] ~]# cat /etc/hosts127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4::1 localhost localhos

hadoop2.6.0实践:A02 问题处理 util.NativeCodeLoader: Unable to load native-hadoop library for your platform

############################################################# hadoop "util.NativeCodeLoader: Unable to load native-hadoop library for your platform" hadoop安装完以后,经常会提示以下警告: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your

Hadoop2.6.0实践:000 环境搭建

##################### Centos6.4VM_01_os.rar ################################################准备工作/opt /opt/modules 软件安装目录 /opt/softwares 软件包(tar.bin.zip) /opt/tools(eclipse等) /opt/data(测试数据)/home/hadoop(工具和数据) ##################### Centos6.4VM_01_os.r

CentOS7+Hadoop2.7.2(HA高可用+Federation联邦)+Hive1.2.1+Spark2.1.0 完全分布式集群安装

1       VM网络配置... 3 2       CentOS配置... 5 2.1             下载地址... 5 2.2             激活网卡... 5 2.3             SecureCRT. 5 2.4             修改主机名... 6 2.5             yum代理上网... 7 2.6             安装ifconfig. 8 2.7             wget安装与代理... 8 2.8       

大话Hadoop1.0、Hadoop2.0与Yarn平台

2016年12月14日21:37:29 Author:张明阳 博文链接:http://blog.csdn.net/a2011480169/article/details/53647012 近来这几天一直在忙于Hbase的实验,也没有太静下心来沉淀自己,今天打算写一篇关于Hadoop1.0.Hadoop2.0与Yarn的博文,从整体上把握三者之间的联系,博客内容如有问题,欢迎留言指正!OK,进入本文正题-- 在开始接触Hadoop的时候,也许大家对于Hadoop是下面的一个概念:Hadoop由两部