Hadoop 2.2在linux上伪分布安装

1、确认java已经安装

[[email protected] ~]# java -version
java version "1.7.0_51"
Java(TM) SE Runtime Environment (build 1.7.0_51-b13)
Java HotSpot(TM) 64-Bit Server VM (build 24.51-b03, mixed mode)

Hadoop 2.2官方建议使用jdk 1.6(sun)以上,我们这里使用1.7。Jdk安装比较简单,不做演示。  只需要下载包,解压,然后配置环境变量即可。

2、添加hadoop管理用户

使用用户hadoop,

[[email protected] ~]# groupadd hadoop 
[[email protected] ~]# useradd -g hadoop hadoop 
[[email protected] ~]# passwd hadoop 
Changing password for user hadoop.
New password: 
BAD PASSWORD: it is based on a dictionary word
BAD PASSWORD: is too simple
Retype new password: 
passwd: all authentication tokens updated successfully.

3、SSH互信

[[email protected] ~]# su - hadoop 
[[email protected] ~]$  ssh-keygen -t rsa 
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): 
.....
.....
    +-----------------+
[[email protected] ~]$ cd .ssh/ 
[[email protected] .ssh]$ ll
total 8
-rw-------. 1 hadoop hadoop 1675 Sep  2 12:51 id_rsa
-rw-r--r--. 1 hadoop hadoop  397 Sep  2 12:51 id_rsa.pub
[[email protected] .ssh]$ cp id_rsa.pub authorized_keys 
[[email protected] .ssh]$  ll 
total 12
-rw-r--r--. 1 hadoop hadoop  397 Sep  2 12:51 authorized_keys
-rw-------. 1 hadoop hadoop 1675 Sep  2 12:51 id_rsa
-rw-r--r--. 1 hadoop hadoop  397 Sep  2 12:51 id_rsa.pub
[[email protected] .ssh]$ ssh localhost
The authenticity of host ‘localhost (::1)‘ can‘t be established.
RSA key fingerprint is 15:09:cf:b4:94:df:a4:6b:65:69:3f:d4:c3:fc:8b:2a.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added ‘localhost‘ (RSA) to the list of known hosts.
[[email protected] ~]$ ssh localhost
Last login: Tue Sep  2 12:51:41 2014 from localhost

4、解压安装包,配置相关参数

tar -zxvf hadoop-2.2.0.tar.gz

hadoop-env.sh 、yarn-env.sh、mapred-env.sh中指定JAVA_HOME,内容如下:

export JAVA_HOME=/u01/app/jdk1.7.0_51

yarn-site.xml文件配置以下内容:

<configuration>
 
<!-- Site specific YARN configuration properties -->
     <property>
             <name>yarn.nodemanager.aux-services</name>
             <value>mapreduce_shuffle</value>
        </property>
        <property>
             <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
             <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
             <name>yarn.resourcemanager.address</name>
             <value>localhost:8032</value>
        </property>
        <property>
             <name>yarn.resourcemanager.scheduler.address</name>
             <value>localhost:8030</value>
        </property>
        <property>
             <name>yarn.resourcemanager.resource-tracker.address</name>
             <value>localhost:8031</value>                                                                   
        </property>                                                                                          
                                                                                                             
        <property>                                                                           
             <name>yarn.resourcemanager.admin.address</name>                                                 
             <value>localhost:8033</value>                                                                   
        </property>                                                                                          
                                                                                                             
        <property>                                                                                           
             <name>yarn.resourcemanager.webapp.address</name>                                                
             <value>localhost:8088</value>                                                                   
        </property>                                                                                          
                                                                                                             
</configuration>

mapred-site.xml配置以下的内容:

<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
 
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>localhost:10020</value>
        </property>
 
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>localhost:19888</value>
        </property>
</configuration>

core-site.xml配置以下的内容

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/data/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

5、格式化namenode,启动,验证

[[email protected] app]$ hdfs namenode -format
-bash: hdfs: command not found
[[email protected] app]$ vim /home/hadoop/.bash_profile 
[[email protected] app]$ source /home/hadoop/.bash_profile 
[[email protected] app]$ hdfs namenode -format
14/09/02 13:28:26 INFO namenode.NameNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = carefree/192.168.2.111
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 2.2.0
STARTUP_MSG:   classpath = /u01/app/hadoop-2.2.0/etc/hadoop:/u01/app/hadoop-2.2.0/share/hadoo
........
.......
/u01/app/hadoop-2.2.0/share/hadoop/mapreduce/hadoop-mapreduce-client-hs-plugins-2.2.0.jar:/u01/app/hadoop-2.2.0/contrib/capacity-scheduler/*.jar
STARTUP_MSG:   build = Unknown -r Unknown; compiled by ‘root‘ on 2014-09-02T02:29Z
STARTUP_MSG:   java = 1.7.0_51)
14/09/02 13:28:28 INFO blockmanagement.DatanodeManager: dfs.block.invalidate.limit=1000
........
........
14/09/02 13:28:31 INFO namenode.FSImage: Image file /u01/app/data/tmp/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 198 bytes saved in 0 seconds.
14/09/02 13:28:31 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
14/09/02 13:28:31 INFO util.ExitUtil: Exiting with status 0
14/09/02 13:28:31 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at carefree/192.168.2.111
************************************************************/

启动相关进程:

[[email protected] app]$ start-all.sh 
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /u01/app/hadoop-2.2.0/logs/hadoop-hadoop-namenode-carefree.out
localhost: starting datanode, logging to /u01/app/hadoop-2.2.0/logs/hadoop-hadoop-datanode-carefree.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /u01/app/hadoop-2.2.0/logs/hadoop-hadoop-secondarynamenode-carefree.out
starting yarn daemons
starting resourcemanager, logging to /u01/app/hadoop-2.2.0/logs/yarn-hadoop-resourcemanager-carefree.out
localhost: starting nodemanager, logging to /u01/app/hadoop-2.2.0/logs/yarn-hadoop-nodemanager-carefree.out

检查进程:

[[email protected] ~]$ jps
5826 NodeManager
5319 NameNode
5726 ResourceManager
5565 SecondaryNameNode
5413 DataNode
6337 Jps

校验hdfs:

[[email protected] app]$ hadoop fs -ls /
[[email protected] app]$ hadoop fs -mkdir /input
[[email protected] app]$ hadoop fs -ls /
Found 1 items
drwxr-xr-x   - hadoop supergroup          0 2014-09-02 13:39 /input
时间: 2024-12-09 04:51:54

Hadoop 2.2在linux上伪分布安装的相关文章

Hadoop 单节点 & 伪分布 安装手记

实验环境CentOS 6.XHadoop 2.6.0JDK       1.8.0_65 目的这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等. 先决条件支持平台    GNU/Linux是产品开发和运行的平台. Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证.    Win32平台是作为开发平台支持的.由于分布式操作尚未在Win

Hadoop伪分布安装详解+MapReduce运行原理+基于MapReduce的KNN算法实现

本篇博客将围绕Hadoop伪分布安装+MapReduce运行原理+基于MapReduce的KNN算法实现这三个方面进行叙述. (一)Hadoop伪分布安装 1.简述Hadoop的安装模式中–伪分布模式与集群模式的区别与联系. Hadoop的安装方式有三种:本地模式,伪分布模式,集群(分布)模式,其中后两种模式为重点,有意义 伪分布:如果Hadoop对应的Java进程都运行在一个物理机器上,称为伪分布 分布:如果Hadoop对应的Java进程运行在多台物理机器上,称为分布.[集群就是有主有从] 伪

Hadoop伪分布安装

1.hadoop的伪分布安装 1.1 设置ip地址 执行命令 service network restart 验证: ifconfig 1.2 关闭防火墙 执行命令 service iptables stop 验证: service iptables status 1.3 关闭防火墙的自动运行(在上面的那一步即使我们关闭了防火墙,还是在有些情况下,防火墙会自动起来,那些情况就是下面的命令的结果为on的时候) 执行命令 chkconfig iptables off 验证: chkconfig --

hadoop1学习系列2-hadoop伪分布安装

1.hadoop的伪分布安装(采用Host-only模式) 1.1 设置ip地址    1.1.1设置宿主机的VirtualBox Host-only Network网路设置         IP地址:192.168.56.1   子网掩码:255.255.255.0   默认网关:不填  1.1.2设置VirtualBox虚拟机的网路连接   网卡1:启用网路连接   连接方式:仅主机(Host-Only)适配器   高级:保持默认   1.1.3启动linux系统,(使用centos6.4)

2015.07.12hadoop伪分布安装

hadoop伪分布安装 ? Hadoop2的伪分布安装步骤[使用root用户用户登陆]other进去超级用户拥有最高的权限 1.1(桥接模式)设置静态IP ,,修改配置文件,虚拟机IP192.168.1.99重启网卡,网关192.168.1.1是物理机下面的默认网关, 执行命令 vi /etc/sysconfig/network-scripts/ifcfg-eh0 ? 修改内容: TYPE="Ethernet" BOOTPROTO="static" ONBOOT=&

Hadoop-2.6.0伪分布--安装配置hbase

Hadoop-2.6.0伪分布--安装配置hbase 1.用到的hadoop与hbase: 2.安装hadoop: 具体安装看这篇博文: http://blog.csdn.net/baolibin528/article/details/42939477 hbase所有版本下载 http://archive.apache.org/dist/hbase/ 3.解压hbase: 结果: 4.修改hbase 文件权限为一般用户权限: 5.设置环境变量: 配置内容: 保存配置: 6.进入配置文件目录: 7

CentOS 6.5 伪分布安装

CentOS 6.5 伪分布安装 软件准备  jdk-6u24-linux-i586.bin .hadoop-1.2.1.tar.gz.hadoop-eclipse-plugin-1.2.1.jar . Eclipse-jee-indigo-SR2-linux-gtk.tar.gz 假设:  所有软件压缩包都放在  /home/hadoop 文件夹下. 1.JDK安装 1.1           root用户登录,使用命令 mkdir  /usr/local/program 新建目录progra

【Oracle 集群】11G RAC 知识图文详细教程之RAC在LINUX上使用NFS安装前准备(六)

RAC在LINUX上使用NFS安装前准备(六) 概述:写下本文档的初衷和动力,来源于上篇的<oracle基本操作手册>.oracle基本操作手册是作者研一假期对oracle基础知识学习的汇总.然后形成体系的总结,一则进行回顾复习,另则便于查询使用.本图文文档亦源于此.阅读Oracle RAC安装与使用教程前,笔者先对这篇文章整体构思和形成进行梳理.由于阅读者知识储备层次不同,我将从Oracle RAC安装前的准备与规划开始进行整体介绍安装部署Oracle RAC.始于唐博士指导,对数据库集群进

linux上源码安装MySQL详解

最近需要使用MySQL Fabric,这货是MySQL5.6.10之后才出现的utility.手头机器装的是MySQL5.1,所以需要先把旧版MySQL升级成5.6版本.之前没有玩过MySQL,所以这次稍微费了点事.在此,把过程记录下来,希望能给有需求的人提供一点帮助.下面我们就正式开始. 1. 删除老版本MySQL 其实删除老版MySQL是一件很简单的事,但是开始时候由于担心各个包的依赖会导致各种问题,亦步亦趋来得很慢.其实只需要做到这么几步就可以了: 1.1 查看已安装的mysql版本并删除