hadoop1.2.1伪分布安装指南

1.伪分布式的安装

1.1 修改ip

(1)打开VMWare或者VirtualBox的虚拟网卡

(2)在VMWare或者VirtualBox设置网络连接方式为host-only

(3)在linux中,修改ip。有上角的图标,右键,选择Edit  Connections....

****ip必须与windows下虚拟网卡的ip在同一个网段,网关必须是存在的。

(4)重启网卡,执行命令service network restart

****报错,如no suitable adapter错误,

(5)验证:执行命令ifconfig

1.2 关闭防火墙

(1)执行命令:service iptables stop 关闭防火墙

(2)验证:执行命令service iptables status

1.3 关闭防火墙的自动开启

(1)执行命令chkconfig iptables off

(2)验证:执行命令chkconfig --list|grep iptables

1.4 修改hostname

(1)执行命令hostname master  修改会话中的hostname

(2)验证:执行命令hostname

(3)执行命令vi  /etc/sysconfig/network

修改文件中的hostname:  HOSTNAME=master

(4)验证:执行命令reboot -h now 重启机器

1.5 设置iphostname绑定

(1)执行命令vi  /etc/hosts

在文本最后增加一行192.168.80.100 master

(2)验证:ping master

(3)在window中配置:主机名对应的ip

C:\Windows\System32\drivers\etc\hosts

192.168.80.100 master

1.6 ssh免密码登陆

(1)执行命令ssh-keygen -t rsa (然后一路Enter)  产生秘钥位于/root/.ssh/

(2)执行命令cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys  产生授权文件

(3)验证:ssh localhost  (ssh 主机名)

1.7 安装jdk

(1)使用winscp把jdk、hadoop复制到linux的/home/big_data/zip

(2)cp  /home/big_data/zip/*  /home/big_data/

(3)cd /home/big_data

(4)tar -zxvf jdk-7u60-linux-i586.tar.gz

(5)重命名 mv jdk1.7.0_60  jdk

(6)执行命令 vi /etc/profile 设置环境变量

增加两行

1 export JAVA_HOME= /home/big_data/jdk
2 export PATH=.:$JAVA_HOME/bin:$PATH

保存退出

执行命令  source  /etc/profile

(7)验证:执行命令java -version

1.8 安装hadoop

(1)执行命令 tar -zxvf hadoop-1.2.1.tar.gz  解压缩

(2)执行命令  mv hadoop-1.2.1  hadoop

(3)执行命令 vi  /etc/profile  设置环境变量

增加一行       export HADOOP_HOME=/home/big_data/hadoop

修改一行       export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

保存退出

执行命令  source  /etc/profile

(4)验证:执行命令 hadoop

(5)修改位于conf/的配置文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml

<1>文件hadoop-env.sh的第9行(指定jdk的安装路径)

1 export JAVA_HOME=/home/big_data/jdk/

<2>文件core-site.xml (hadoop的核心配置文件,用于配置namenode的地址和端口)

 1 <configuration>
 2   <property>
 3     <name>fs.default.name</name>
 4     <value>hdfs://master:9000</value>
 5     <description>change your own hostname</description>
 6   </property>
 7   <property>
 8     <name>hadoop.tmp.dir</name>
 9     <value>/home/big_data/hadoop/tmp</value>
10   </property>
11 </configuration>

<3>文件hdfs-site.xml  (配置replication,即数据保存份数)

 1 <configuration>
 2   <property>
 3     <name>dfs.replication</name>   #表示设置副本数,默认是3
 4     <value>1</value>
 5   </property>
 6   <property>
 7     <name>dfs.name.dir</name>    # 先创建 mkdir -p /home/big_data/hadoop/hdfs
 8     <value>/home/big_data/hadoop/hdfs/name</value>
 9   </property>
10   <property>
11     <name>dfs.data.dir</name>
12     <value>/home/big_data/hadoop/hdfs/data</value>
13   </property>
14   <property>
15     <name>dfs.permissions</name>   #表示是否设置权限控制
16     <value>false</value>
17   </property>
18 </configuration>

如果是super-user(超级用户),它是nameNode进程的标识。系统不会执行任何权限检查

<4>文件mapred-site.xml  (配置jobtracker的地址和端口)

1 <configuration>
2   <property>
3     <name>mapred.job.tracker</name>
4     <value>master:9001</value>
5     <description>change your own hostname</description>
6   </property>
7 </configuration>
8  

(6)执行命令 hadoop namenode -format 进行格式化  (格式化hadoop的文件系统HDFS)

如果报错:

[[email protected] hdfs]# hadoop namenode -format

14/07/18 05:25:26 INFO namenode.NameNode: STARTUP_MSG:

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = master/192.168.80.100

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.2.1

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by ‘mattf‘ on Mon Jul 22 15:23:09 PDT 2013

STARTUP_MSG:   java = 1.7.0_60

************************************************************/

Re-format filesystem in /home/big_data/hadoop/hdfs/name ? (Y or N) n

Format aborted in /home/big_data/hadoop/hdfs/name

14/07/18 05:25:31 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at master/192.168.80.100

************************************************************/

请先删除 rm -rf /home/big_data/hdfs/*

(7)执行命令 start-all.sh 启动hadoop

(8)验证:

<1>执行命令jps 查看java进程,发现5个进程,分别是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker

<2>通过浏览器查看:http://master:50070 和 http://master:50030

*****修改windows的C:/Windows/system32/drivers/etc/目录下的hosts文件

1.9如果去掉警告提示:

[[email protected] ~]# hadoop fs -ls /

Warning: $HADOOP_HOME is deprecated.(去掉警告)

方法如下:

[[email protected] ~]# vi /etc/profile   (添加一句话)

# /etc/profile

export HADOOP_HOME_WARN_SUPPRESS=1

export JAVA_HOME=/usr/local/jdk

export HADOOP_HOME=/usr/local/hadoop

export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

[[email protected] ~]# source /etc/peofile  (立即生效)

先来爽一把,代码测试:

mkdir input

cp conf/* input/

bin/hadoop jar hadoop-examples-1.2.1.jar wordcount file:////home/big_data/hadoop/input output

hadoop fs -cat output/p*

好了,看到这个结果,你可以笑一把,期待我下一章博客的到来吧???

哈哈

时间: 2024-12-14 19:22:43

hadoop1.2.1伪分布安装指南的相关文章

Spark1.0.0伪分布安装指南

?一.下载须知 软件准备: spark-1.0.0-bin-hadoop1.tgz   下载地址:spark1.0.0 scala-2.10.4.tgz    下载下载:Scala 2.10.4 hadoop-1.2.1-bin.tar.gz   下载地址:hadoop-1.2.1-bin.tar.gz jdk-7u60-linux-i586.tar.gz  下载地址:去官网下载就行,这个1.7.x都行 二.安装步骤 hadoop-1.2.1安装步骤,请看: http://my.oschina.

Hadoop-1.2.1伪分布下 hive-0.10.0内嵌模式安装

Hadoop-1.2.1伪分布下 hive-0.10.0内嵌模式安装 1.下载hive-0.10.0 网址是:http://archive.apache.org/dist/hive/hive-0.10.0/   下载的安装包为:hive-0.10.0.tar.gz   2012-12-18 23:21  35M  2.把hive-0.10.0拷进 /usr/ 目录下,并进行解压 tar  –zxvf hive-0.10.0.tar.gz 解压完毕如下图: 3.修改文件名.修改hive文件权限.删

Hadoop1.2.1伪分布模式安装指南

一.前置条件 (1)Linux可以用作开发平台及产品平台. 2.安装jdk 1.6或以上 $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys 二.基本准备 [plain] view plaincopy [[email protected] jediael]$wget http://mirror.bit.edu.cn/apache/hadoop/common/h

轻松搭建hadoop-1.2.1伪分布

以CentOS为例: CentOS虚拟机安装:http://blog.csdn.net/baolibin528/article/details/32918565 网络设置:http://blog.csdn.net/baolibin528/article/details/43797107 PieTTY用法:http://blog.csdn.net/baolibin528/article/details/43822509 WinSCP用法:http://blog.csdn.net/baolibin5

hadoop-1.2.1 伪分布配置

首先JDK安装及相关环境变量配置 # Java environment setting JAVA_HOME=/usr/java/default CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar PATH=$JAVA_HOME/bin:$PATH JRE_HOME=$JAVA_HOME/jre export JAVA_HOME CLASSPATH PATH JRE_HOME # Maven configuration M2_HOM

(一)Hadoop1.2.1安装——单节点方式和单机伪分布方式

Hadoop1.2.1安装——单节点方式和单机伪分布方式 一.   需求部分 在Linux上安装Hadoop之前,需要先安装两个程序: 1)JDK 1.6(或更高版本).Hadoop是用Java编写的程序,Hadoop的编译及MapReduce的运行都需要使用JDK.因此在安装Hadoop前,必须安装JDK 1.6或更高版本. 2)SSH(安全外壳协议),推荐安装OpenSSH.Hadoop需要通过SSH来启动Slave列表中各台主机的守护进程,因此SSH也是必须 安装的,即使是安装伪分布式版本

hadoop1学习系列2-hadoop伪分布安装

1.hadoop的伪分布安装(采用Host-only模式) 1.1 设置ip地址    1.1.1设置宿主机的VirtualBox Host-only Network网路设置         IP地址:192.168.56.1   子网掩码:255.255.255.0   默认网关:不填  1.1.2设置VirtualBox虚拟机的网路连接   网卡1:启用网路连接   连接方式:仅主机(Host-Only)适配器   高级:保持默认   1.1.3启动linux系统,(使用centos6.4)

大数据学习:Hadoop中伪分布的搭建

<注:我们假设使用的是一个没有进行过任何配置的Linux系统,下面我们开始进行伪分布的搭建> 1.设置IP 地址 设置完成后,执行命令:service iptables restart 验证:         ifconfig 2. 关闭防火墙 执行命令        service iptables stop 验证:                 service iptables status 3.关闭防火墙的自动运行 执行命令        chkconfig iptables off

Hadoop 2.2.0的伪分布集群环境搭建

Hadoop伪分布环境搭建的“三步”总流程 第一 .Jdk安装和环境变量配置 1.先检测一下,jdk是否安装 java - version 2.查看下CentOS的位数 file /bin/ls 3.切换到usr/,创建java/目录 cd / ls cd usr/ mkdir java cd java/ ls 4.上传本地下载好的 ,显示上传命令没有安装 rz 5 .下载rz .sz命令 yum -y install lrzsz 6 .上传本地下载好的 jdk-7u79-linux-x64.t