【原创】安装和部署Hadoop

安装和部署Hadoop

一、安装虚拟机

1、    服务器配置信息


Linux主机一


Linux主机二


Linux主机三


主机名:master


主机名:host1


主机名:host2


IP:192.168.100.100


IP:192.168.100.101


IP:192.168.100.100


HDFS


MapReduce


HDFS


MapReduce


HDFS


MapReduce


NameNode


JobTracker


DataNode


TaskTracker


DateNode


TaskTracker

二、修改主机名


l   命令:[[email protected] ~] vim /etc/sysconfig/network

打开文件后,

NETWORKING=yes  #使用网络

HOSTNAME=master  #设置主机名

l   命令:hostname master   #立即生效

l  查看主机名命令: [[email protected]~] hostname

三、设置网络参数

l  命令:[[email protected] ~ ] vim /etc/sysconfig/network-scripts/ifcfg-eth0


DEVICE=eth0         #对应第一张网卡

TYPE=Ethernet

ONBOOT=yes          #是否启动时运行

NM_CONTROLLED=yes

BOOTPROTO=static       #使用静态IP,而不是由DHCP分配IP

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"      #名称

HWADDR=00:50:56:94:04:3C  #必须对应etho是的MAC地址(/etc/udev/rules.d/70-persistent-net.rules)

PEERDNS=yes

PEERROUTES=yes

IPADDR=192.168.1.128    #指定本机IP地址

NETMASK=255.255.255.0    #指定子网掩码

GATEWAY=192.168.1.2     #指定网关

DNS1=192.168.1.2

l  重启网络

[[email protected] ~ ] service network restart

四、修改虚拟机的Hosts文件

l  分别在master、host1、host2三台机器上配置hosts。

l  命令:[[email protected] ~ ] vim /etc/hosts

l  host文件配置为:

192.168.100.100 master

192.168.100.101 host1

192.168.100.102 host2

五、配置SSH无密码登录

1、    生成公钥私钥

在三台主机上执行生成公钥私钥命令:

[[email protected] ~ ] ssh-keygen –t rsa

一路回车就创建了无密码的公钥私钥,存放在/home/chybin/.ssh文件夹下。

id_rsa是私钥

id_rsa.pub是公钥

2、    复制master的公钥

[[email protected] ~ ] sudo ~/.ssh/id_rsa.pub >> authorized_keys

3、    将master上的公钥发送给host1、host2

[[email protected] ~ ] sudo scp authorized_keys [email protected]:~/.ssh

[[email protected] ~ ] sudo scp authorized_keys [email protected]:~/.ssh

4、    修改authorized_keys权限

在master、host1、host2上修改authorized_keys文件的属性

[[email protected] ~ ] chmod 644 ~/.ssh/authorized_keys

[[email protected] ~ ] chmod 644 ~/.ssh/authorized_keys

[[email protected] ~ ] chmod 644 ~/.ssh/authorized_keys

5、    测试是否成功

在master上用ssh连接host1、host2

[[email protected] ~ ] ssh host1

第一次让输入密码,可以输入多个exit命令退出ssh后,再次ssh host1,就不用输入密码了。

六、安装Java JDK

l  先判断是否已经安装了Java jdk,用命令 [[email protected] ~ ] java –version

l  复制jdk-7u79-linux-x64.rpm到master随便一个目录中

l  安装jdk,命令:[[email protected] ~ ] # rpm –ivh ~/jdk-7u79-linux-x64.rpm.rpm

l  安装目录在/usr/java里,这时候用 java -version 就可以验证是否安装成功了。

七、设置环境变量

l  打开配置文件:sudo vim /etc/profile

l  追加变量:

JAVA_HOME=/usr/java/jdk1.7.0_79

PATH=$PATH:$JAVA_HOME/bin

CLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib

export JAVA_HOME CLASSPATH PATH

l  修改后,让配置文件立即生效: [[email protected] ~] source /etc/profile

八、安装hadoop

1、    版本选择


JDK


V1.7.0


Hadoop


V2.7.2


Hbase


V1.2


Hive


V1.2.1

2、    在master上安装Hadoop

(1)     将hadoop-2.7.2.tar.gz文件放入master随便一个目录下,这里选择根目录。

(2)     解压hadoop-2.7.2.tar.gz


[[email protected] ~ ] $ tar –zxvf hadoop-2.7.2.tar.gz

(3)     在master上创建hadoop文件夹


[[email protected] ~ ] $ sudo mkdir /usr/hadoop

(4)     剪切hadoop-2.7.2到hadoop文件夹下


[[email protected] ~ ] $ sudo mv /hadoop-2.7.2 /usr/hadoop

3、    在master上配置Hadoop

(1)     配置Hadoop环境变量

l  打开配置文件


[[email protected] ~]$ sudo vim /etc/profile

l  追加变量


HADOOP_HOME=/usr/hadoop/hadoop-2.7.2

PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_HOME PATH

(2)     配置hadoop-env.sh

l  hadoop 2.X版本的配置文件都在${HADOOP_HOME}/etc/hadoop目录里。

l  文件结构如下:

l  hadoop-env.sh配置为


export  JAVA_HOME=${JAVA_HOME}

export HADOOP_HOME=/usr/hadoop/hadoop-2.7.2

export PATH=$HADOOP_HOME/bin:$PATH

l  使hadoop-env.sh生效


[[email protected] ~] $ source ${HADOOP_HOME}/etc/hadoop/hadoop-env.sh

(3)     配置slave文件


[[email protected] ~]$ sudo vim ${HADOOP_HOME}/etc/hadoop/slaves


文件内容:

host1

host2

(4)     配置core-site.xml


<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://master</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/hadoop/hadoop-2.7.2/hadoop_tmp</value>

</property>

</configuration>

(5)     配置hdfs-site.xml


<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>heartbeat.recheckinterval</name>

<value>10</value>

</property>

<property>

<name>dfs.name.dir</name>

<value>file:/usr/hadoop/hadoop-2.7.2/hdfs/name</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>file:/usr/hadoop/hadoop-2.7.2/hdfs/data</value>

</property>

</configuration>

(6)     配置yarn-site.xml


<configuration>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8031</value>

</property>

<property>

<name>yarn.resourcemanager.adimin.address</name>

<value>master:8033</value>

</property>

<property>

<name>yarn.resoucemanager.webapp.address</name>

<value>master:8088</value>

</property>

<property>

<name>yarn.nademanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

</configuration>

4、    其他必要配置

(7)     三台机器上配置hadoop文件夹的读写权限


[[email protected] ~]$ sudo chmod 777 -R /usr/hadoop/hadoop-2.7.2

5、    将Hadoop文件夹复制到host1、host2

(8)     复制hadoop2.7.2到host1、host2


[[email protected] ~ ] $ sudo scp –r /usr/hadoop/hadoop-2.7.2 [email protected]:/usr/hadoop


[[email protected] ~ ] $ sudo scp –r /usr/hadoop/hadoop-2.7.2 [email protected]:/usr/hadoop

6、    格式化NameNode


[[email protected] ~ ] $ hadoop namenode -format

7、    验证是否安装成功


[[email protected] ~]$ hadoop version

Hadoop 2.7.2

Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r b165c4fe8a74265c792ce23f546c64604acf0e41

Compiled by jenkins on 2016-01-26T00:08Z

Compiled with protoc 2.5.0

From source with checksum d0fda26633fa762bff87ec759ebe689c

This command was run using /usr/hadoop/hadoop-2.7.2/share/hadoop/common/hadoop-common-2.7.2.jar


[[email protected] ~]$ hadoop fs -ls /

Found 1 items

drwxr-xr-x   - chybin supergroup          0 2016-04-05 05:19 /demo1


master机器上:

[[email protected] ~]$ jps -l

13121 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode

13275 org.apache.hadoop.yarn.server.resourcemanager.ResourceManager

15271 sun.tools.jps.Jps

12924 org.apache.hadoop.hdfs.server.namenode.NameNode


host1机器上:

 

时间: 2024-11-16 19:06:23

【原创】安装和部署Hadoop的相关文章

Hue的安装与部署

Hue的安装与部署 hadoop hue Hue 简介 Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python Web框架Django实现的.通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等.很早以前就听说过Hue的便利与强大,一直没能亲自尝试使用,下面先通过官网给出的特性,通过翻译原文简单

[原创]HBase学习笔记(1)-安装和部署

HBase安装和部署 使用的HBase版本是1.2.4 1.安装步骤(默认hdfs已安装好) # 下载并解压安装包 cd tools/ tar -zxf hbase-1.2.4-bin.tar.gz   # 重命名为hbase mv hbase-1.2.4 hbase # 将hadoop目录下的hdfs-site.xml 和 core-stie.xml拷贝到 hbase下的conf 目录中 cd /home/work/tools/hbase/conf cp /home/work/tools/ha

安装部署Hadoop

安装Hadoop教程 目录 第一步. 配置Vmware NAT网络... 2 一. Vmware网络模式介绍... 2 二. NAT模式配置... 2 第二步. 安装Linux操作系统... 3 三. Vmware上安装Linux系统... 3 四. 设置网络... 5 五. 修改Hostname. 6 六. 配置Host. 7 第三步. 安装JDK. 7 七. 安装Java JDK. 7 八. 添加环境变量... 7 第四步. 单机Hadoop部署过程... 7 九. Hadoop所用的用户设

[原创]CentOS 6 Ambari Hadoop平台的安装(本地库)

1. 安装前的准备 1.1 硬件要求 无特殊需求(根据Hadoop各个组件需求及实际情况,一般建议单个集群的机器数量在3台及以上:1台Master结点,2台机器作为Slave结点). 1.2 软件要求 1.2.1 操作系统 仅支持如下操作系统: Red Hat Enterprise Linux (RHEL) v5.x or 6.x (64-bit) CentOS v5.x or 6.x (64-bit) SUSE Linux Enterprise Server (SLES) 11, SP1 (6

阿里云ECS服务器部署HADOOP集群(五):Pig 安装

本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建. 1 环境介绍 一台阿里云ECS服务器:master 操作系统:CentOS 7.3 Hadoop:hadoop-2.7.3.tar.gz Java: jdk-8u77-linux-x64.tar.gz Pig: pig-0.17.0.tar.gz 2 Pig 下载 下载 pig-0.17.0.tar.gz 并在合适的位置解压缩,笔者这里解压缩的路径为: /usr/local 将解压得到的目录改

阿里云ECS服务器部署HADOOP集群(四):Hive本地模式的安装

本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建. 本地模式需要采用MySQL数据库存储数据. 1 环境介绍 一台阿里云ECS服务器:master 操作系统:CentOS 7.3 Hadoop:hadoop-2.7.3.tar.gz Java: jdk-8u77-linux-x64.tar.gz Hive:apache-hive-2.3.6-bin.tar.gz Mysql: Mysql 5.7 MySQL Connector-J:mysql-

阿里云ECS服务器部署HADOOP集群(七):Sqoop 安装

本篇将在 阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建 阿里云ECS服务器部署HADOOP集群(二):HBase完全分布式集群搭建(使用外置ZooKeeper) 阿里云ECS服务器部署HADOOP集群(三):ZooKeeper 完全分布式集群搭建 阿里云ECS服务器部署HADOOP集群(四):Hive本地模式的安装 的基础上搭建. 1 环境介绍 一台阿里云ECS服务器:master 操作系统:CentOS 7.3 Hadoop:hadoop-2.7.3.tar

阿里云ECS服务器部署HADOOP集群(六):Flume 安装

本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建. 1 环境介绍 一台阿里云ECS服务器:master 操作系统:CentOS 7.3 Hadoop:hadoop-2.7.3.tar.gz Java: jdk-8u77-linux-x64.tar.gz Flume:apache-flume-1.8.0-bin.tar.gz 2 Flume 下载 下载 apache-flume-1.8.0-bin.tar.gz 并在合适的位置解压缩,笔者这里解压

Hadoop的伪分布式安装和部署的流程

1.准备工作 下载一些用到的命令 yum install -y vim yum install -y lrzsz yum install net-tools 目录约定 /opt #工作目录 /opt/install #安装包 /opt/softwar #软件包 /opt/other #其它 /opt/test #测试 cd /opt mkdir install software other test #新建目录 JDK安装 cd /opt/install #进入安装包目录 ? rz jdk-8u