hadoop-0.20.2伪分布式安装简记

1.准备环境

虚拟机(redhat enterprise linux 6.5)

jdk-8u92-linux-x64.tar.gz

hadoop-0.20.2.tar.gz

2.关闭虚拟机的防火墙,selinux,配置SSH免密码登录

[[email protected] ~]# vim /etc/sysconfig/selinux

[[email protected] ~]# iptables -F
[[email protected] ~]# service iptables save
iptables: Saving firewall rules to /etc/sysconfig/iptables:[  OK  ]
[[email protected] ~]# service iptables stop
iptables: Setting chains to policy ACCEPT: filter          [  OK  ]
iptables: Flushing firewall rules:                         [  OK  ]
iptables: Unloading modules:                               [  OK  ]
[[email protected] ~]# chkconfig iptables off
[[email protected] ~]# chkconfig iptables --list
iptables           0:off    1:off    2:off    3:off    4:off    5:off    6:off

[[email protected] ~]# ssh-keygen
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):                  #这里直接回车
Enter same passphrase again:                                                 #这里直接回车
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
64:d2:fa:ee:61:ef:29:b0:c8:55:1e:6b:a3:6d:1b:d4 [email protected]
The key‘s randomart image is:
+--[ RSA 2048]----+
|                 |
|       .         |
|      . +        |
|       =o.       |
|      .oSoE      |
|      oo=        |
|   . o *=.       |
|    o oo++ .     |
|       o+++      |
+-----------------+
[[email protected] ~]# ssh-copy-id localhost             #这里写localhost或者主机名均可
The authenticity of host ‘localhost (::1)‘ can‘t be established.
RSA key fingerprint is a5:c4:4e:54:ea:2d:72:3f:9e:65:a2:ac:cd:41:ce:ca.
Are you sure you want to continue connecting (yes/no)? yes             #这里输入yes
Warning: Permanently added ‘localhost‘ (RSA) to the list of known hosts.
[email protected]‘s password:                                                                               #这里输入密码
Now try logging into the machine, with "ssh ‘localhost‘", and check in:

  .ssh/authorized_keys

to make sure we haven‘t added extra keys that you weren‘t expecting.

测试登陆下

[[email protected] ~]# ssh localhost
Last login: Sat Oct  8 17:16:27 2016 from sishen.161.cn
[[email protected] ~]# exit
logout
Connection to localhost closed.

成功!!!

3.配置环境

首先解压

[[email protected] ~]# tar -xf jdk-8u92-linux-x64.tar.gz -C /usr/src/hadoop/

然后编辑/etc/profile文件

[[email protected] ~]# vim /etc/profile

末尾添加以下内容

79 export JAVA_HOME=/usr/src/hadoop/jdk1.8.0_92
80 export HADOOP_HOME=/usr/src/hadoop/hadoop-0.20.2
81 export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin

保存退出

 

测试

[[email protected] ~]# java -version
java version "1.8.0_92"
Java(TM) SE Runtime Environment (build 1.8.0_92-b14)
Java HotSpot(TM) 64-Bit Server VM (build 25.92-b14, mixed mode)

成功!!!

然后开始配置hadoop的配置文件

[[email protected] hadoop-0.20.2]# cd /usr/src/hadoop/hadoop-0.20.2/conf/
[[email protected] conf]# ls
capacity-scheduler.xml     hadoop-policy.xml  slaves
configuration.xsl         hdfs-site.xml      ssl-client.xml.example
core-site.xml              log4j.properties   ssl-server.xml.example
hadoop-env.sh              mapred-site.xml
hadoop-metrics.properties  masters

标红的文件是我们要编辑的

首先编辑hadoop-env.sh ,使用vim打开文件后,找到 # export JAVA_HOME=/usr/lib/j2sdk1.5-sun(大约在第9行左右),然后在此行下面添加如下内容

export JAVA_HOME=/usr/src/hadoop/jdk1.8.0_92,保存并退出

然后编辑core-site.xml文件,使用vim打开之后找到<configuration>,修改为以下内容

<configuration>
  <property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>

编辑hdfs-site.xml文件,在<configuration>标签内添加如下内容(数字是行号!不用写数字)

  7 <property>
  8 <name>dfs.data.dir</name>
  9 <value>/usr/src/hadoop/hadoop-0.20.2/data</value>
10 </property>
11 <property>
12 <name>dfs.replication</name>
13 <value>1</value>
14 </property>
编辑mapred-site.xml文件,找到<configuration>标签后,在添加如下内容(数字为行号!不用写数字)

7 <property>
8 <name>mapred.job.tracker</name>
9 <value>localhost:9001</value>
10 </property>

保存退出以后,开始格式化

[[email protected] ~]# hadoop namenode –format

16/10/09 11:42:11 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = sishen.161.cn/192.168.186.161
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 0.20.2
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707; compiled by ‘chrisdo‘ on Fri Feb 19 08:07:34 UTC 2010
************************************************************/
16/10/09 11:42:12 INFO namenode.FSNamesystem: fsOwner=root,root
16/10/09 11:42:12 INFO namenode.FSNamesystem: supergroup=supergroup
16/10/09 11:42:12 INFO namenode.FSNamesystem: isPermissionEnabled=true
16/10/09 11:42:12 INFO common.Storage: Image file of size 94 saved in 0 seconds.
16/10/09 11:42:12 INFO common.Storage: Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted. //格式化成功的标志
16/10/09 11:42:12 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at sishen.161.cn/192.168.186.161
************************************************************/

启动hadoop集群

[[email protected] ~]# start-all.sh

检查

[[email protected] ~]# jps
3058 TaskTracker
2898 SecondaryNameNode
2694 NameNode
2966 JobTracker
2790 DataNode
3111 Jps

停止hadoop集群

[[email protected] ~]# stop-all.sh
stopping jobtracker
localhost: stopping tasktracker
stopping namenode
localhost: stopping datanode
localhost: stopping secondarynamenode
[[email protected] ~]# jps
3426 Jps

至此hadoop-0.20.2伪分布式安全完成!

时间: 2024-12-09 17:27:21

hadoop-0.20.2伪分布式安装简记的相关文章

ubuntu上hadoop 0.20.2 伪分布式配置

1.首先安装好jdk并且配置好java的环境变量(具体方法可以在google中搜到)解压hadoop-0.20.2.tar.gz到你的ubuntu账户的目录中(/home/xxxx/hadoop)(解压到任何目录都可以吧,看个人需要,不过配置下面文件的时候一定要改成自己的路径)修改hadoop下的conf文件夹下的core-site.xml,hadoop-env,sh,hdfs-site.xml,mapred-site.xml core-site.xml <configuration> <

Hadoop日记Day3---Hadoop的伪分布式安装

导录 比较仔细的读者可能发现,注意本章的图片又不太对劲的地方,那就是linux中的主机名有的是hadoop,有的是localhost,是由于使用的不同的电脑编辑的本文章,有的电脑上并没有修改主机名,一直使用默认的localhost主机名,不影响大家的学习,只是主机名不一样,其他的都一样,大家注意一下就可以了,自己是什么主机名,就把他看成自己的主机名就可以了,文章中的localhost和hadoop只是不同的主机名,他们的目录结构都是一样的.还有就是一下的软件下载地址:http://pan.bai

Hadoop伪分布式安装

本文介绍的主要是Hadoop的伪分布式的搭建以及遇到的相关问题的解决,做一下记录,jdk的安装这里就不做太多的介绍了,相信大家根据网上的安装介绍很快就能安装成功. 环境 操作系统 Oracle VM VirtualBox-rhel-6.4_64   本机名称 yanduanduan   本机IP 192.168.1.102   JDK 1.7.0_79   hadoop 2.7.3 点此下载 Hadoop 有两个主要版本,Hadoop 1.x.y 和 Hadoop 2.x.y 系列,比较老的教材

Hadoop学习笔记_4_实施Hadoop集群 --伪分布式安装

实施Hadoop集群 --伪分布式安装 准备与配置安装环境 安装虚拟机和linux,虚拟机推荐使用vmware,PC可以使用workstation,服务器可以使用ESXi,在管理上比较方便.ESXi还可以通过拷贝镜像文件复制虚拟机,复制后自动修改网卡号和ip,非常快捷.如果只是实验用途,硬盘大约预留20-30G空间. 以Centos为例,分区可以选择默认[如果想要手动分区,请参考博客:http://blog.csdn.net/zjf280441589/article/details/175485

hadoop伪分布式安装【翻译自hadoop1.1.2官方文档】

1.hadoop支持的平台: GNU/Linux平台是一个开发和生产的平台. hadoop已经被证明可以在GNU/Linux平台不是2000多个节点. win32是一个开发平台,分布式操作还没有在win32系统上很好的测试, 所以它不被作为生产环境. 2.安装hdoop需要的软件: linux和windows下安装hadoop需要的软件: 2.1从sun官网下载的1.6的jdk必须被安装. 2.2ssh 必须被安装 and ssh协议必须使用hadoop脚本用来管理远程的hadoop进程. 2.

【Hadoop】在Ubuntu系统下安装Hadoop单机/伪分布式安装

Ubuntu 14.10 前方有坑: 由于之前的分布式系统电脑带不动,所以想换一个伪分布式试一试.用的是Virtualbox + Ubuntu 14.10 .结果遇到了 apt-get 源无法更新的情况,以及安装包安装不全的情况.只好咬一咬牙,又重新把系统给更新一边. apt-get 源无法更新解决方案:传送门 首先先备份源列表: sudo cp /etc/apt/sources.list /etc/apt/sources.list_backup 用编辑器打开: sudo gedit /etc/

spark伪分布式安装与测试

1.下载scala2.11.5版本,下载地址为:http://www.scala-lang.org/download/2.11.5.html 2.安装和配置scala: 第一步:上传scala安装包 并解压 第二步 配置SCALA_HOME环境变量到bash_profile 第三步 source 使配置环境变量生效: 第四步 验证scala: 3.下载spark 1.2.0,具体下载地址:http://spark.apache.org/downloads.html 4.安装和配置spark: 第

Zookeeper 初体验之——伪分布式安装(转)

原文地址: http://blog.csdn.net/salonzhou/article/details/47401069 简介 Apache Zookeeper 是由 Apache Hadoop 的 Zookeeper 子项目发展而来,现在已经成为了 Apache 的顶级项目.Zookeeper 为分布式系统提供了高效可靠且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等.Zookeeper 接口简单,开发人员不必过多地纠结在分布式系统编程

spark1.2.0版本搭建伪分布式环境

1.下载scala2.11.5版本,下载地址为:http://www.scala-lang.org/download/2.11.5.html 2.安装和配置scala: 第一步:上传scala安装包 并解压 第二步 配置SCALA_HOME环境变量到bash_profile 第三步 source 使配置环境变量生效: 第四步 验证scala: 3.下载spark 1.2.0,具体下载地址:http://spark.apache.org/downloads.html 4.安装和配置spark: 第