Hadoop2.7.3分布式搭建

一.从hadoop 下载2.7.3 安装包

版本:hadoop-2.7.3.tar.gz

下载地址:www.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

百度云下载地址:

http://pan.baidu.com/s/1pLOyu9d  密码:s0j5

二. 解压下载好的hadoop-2.7.3.tar.gz到/usr/local目录下

$ sudo tar -xzvf hadoop-2.7.3.tar.gz



 可以得到hadoop-2.7.3目录

三.hadoop配置

3.1 hadoop-env.sh

# cd /hadoop-2.7.3/etc/hadoop/

# sudo vim hadoop-env.sh

修改export JAVA_HOME=/usr/local/jdk1.8

yarn-env.sh (同上)

mapred-env.sh (同上)

3.2  slaves

删除 localhost

添加

hadoop1

hadoop2

3.2 core-site.xml

  1. <configuration>
  2. <property>
  3. <name>fs.default.name</name>
  4. <value>hdfs://hadoop0:9000</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>file:/usr/local/hadoop-2.7.3/tmp</value>
  9. </property>
  10. </configuration>

3.3 hdfs-site.xml

  1. <configuration>
  2. <property>
  3. <name>dfs.datanode.data.dir</name>
  4. <value>/usr/local/hadoop-2.7.3/hdf/data</value>
  5. <final>true</final>
  6. </property>
  7. <property>
  8. <name>dfs.namenode.name.dir</name>
  9. <value>/usr/local/hadoop-2.7.3/hdf/name</value>
  10. <final>true</final>
  11. </property>
  12. </configuration>

3.4 mapred-site.xml

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>mapreduce.jobhistory.address</name>
  8. <value>hadoop0:10020</value>
  9. </property>
  10. <property>
  11. <name>mapreduce.jobhistory.webapp.address</name>
  12. <value>hadoop0:19888</value>
  13. </property>
  14. </configuration>

3.5 yarn-site.xml

  1. <configuration>
  2. <property>
  3. <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  4. <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  5. </property>
  6. <property>
  7. <name>yarn.resourcemanager.address</name>
  8. <value>hadoop0:8032</value>
  9. </property>
  10. <property>
  11. <name>yarn.resourcemanager.scheduler.address</name>
  12. <value>hadoop0:8030</value>
  13. </property>
  14. <property>
  15. <name>yarn.resourcemanager.resource-tracker.address</name>
  16. <value>hadoop0:8031</value>
  17. </property>
  18. <property>
  19. <name>yarn.resourcemanager.admin.address</name>
  20. <value>hadoop0:8033</value>
  21. </property>
  22. <property>
  23. <name>yarn.resourcemanager.webapp.address</name>
  24. <value>hadoop0:8088</value>
  25. </property>
  26. </configuration>

四. 各个主机之间复制hadoop

# sudo scp -r /usr/local/hadoop-2.7.3 hadoop1:/usr/local/

# sudo scp -r /usr/local/hadoop-2.7.3 hadoop2:/usr/local/

五. 各个主机之间hadoop环境变量

5.1 # sudo vim /etc/profile

编辑内容:

  1. export HADOOP_HOME=/usr/local/hadoop-2.7.3
  2. export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
  3. export HADOOP_LOG_DIR=/usr/local/hadoop-2.7.3/logs
  4. export YARN_LOG_DIR=$HADOOP_LOG_DIR

5.2 使配置生效

# source /etc/profile

六 . 格式化namenode(在master上执行)

# cd /usr/local/hadoop-2.7.3/bin

# hdfs namenode -format

七. 启动 hadoop

# cd /usr/local/hadoop-2.7.3/sbin

# start-all.sh

master:

slave1:

slave2:

http://192.168.1.111:50070/

http://192.168.1.111:8088/cluster


后续集成zookeeper,hbase等

http://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.4.9/

www.apache.org/dist/hbase/1.2.4/hbase-1.2.4-bin.tar.gz

来自为知笔记(Wiz)

时间: 2024-10-13 16:14:05

Hadoop2.7.3分布式搭建的相关文章

hadoop2.2.0伪分布式搭建

一.准备linux环境 1.更改VMware适配器设置 由于是在单机环境下进行学习的,因此选择适配器模式是host-only模式,如果想要联网,可以选择桥接模式,配置的方式差不多. 点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.85.0 子网掩码:255.255.255.0 -> apply -> ok 回到windows --> 打开网络

Hadoop2.7.3 多台主机完全分布式搭建(Mac OS X 10.12.4系统 + Parallels Desktop 12 Pro Edition)

Hadoop2.7.3 多台主机完全分布式搭建(Mac OS X 10.12.4系统) 前言 由于学校课程实验的要求,特意需要搭建hadoop的完全分布式系统,所以自己就蛋疼的配了,可惜关于MAC系统的Hadoop搭建材料太少,而且真正的基于校园网的配置基本上没有(基本是在一台电脑上进行,因此当在多台电脑上运行会有许多bug),因此这里想要能够将自己搭的过程想要分享给大家,可能有些配置的解释没有那么全面,所以希望大家见谅?? 环境 基于Mac OSX 10.12.4(Sierra).Ubuntu

Centos7完全分布式搭建Hadoop2.7.3

(一)软件准备 1,hadoop-2.7.3.tar.gz(包) 2,三台机器装有cetos7的机子 (二)安装步骤 1,给每台机子配相同的用户 进入root : su root --------->  创建用户s:  useradd s -----------> 修改用户密码:passwd s 2.关闭防火墙及修改每台机的hosts(root 下) vim /etc/hosts  如:(三台机子都一样) vim /etc/hostsname:如修改后参看各自的hostname 关闭防火墙:s

Docker中自动化搭建Hadoop2.6完全分布式集群

这一节将在<Dockerfile完成Hadoop2.6的伪分布式搭建>的基础上搭建一个完全分布式的Hadoop集群. 1. 搭建集群中需要用到的文件 [[email protected] hadoop-cluster]# ll total 340648# 用自动化构建集群的脚本 -rwxr-xr-x. 1 root root 2518 Aug 13 01:20 build-cluster.sh# 使用scp 来下载的文件的脚本 -rwxr-xr-x. 1 root root 314 Aug 1

Hadoop2.x伪分布式环境搭建(一)

1.安装hadoop环境,以hadoop-2.5.0版本为例,搭建伪分布式环境,所需要工具包提供网盘下载:http://pan.baidu.com/s/1o8HR0Qu 2.上传所需要的工具包到linux相对就应的目录中 3.接上篇(Linux基础环境的各项配置(三)中最后一部分,需卸载系统自带的jdk,以免后续安装的jdk产生冲突),卸载jdk完成后,安装jdk-7u67-linux-x64.tar.gz版本,上述工具包可下载 (1).解压JDK tar -zxf jdk-7u67-linux

centos7搭建hadoop2.10完全分布式

本篇介绍在centos7中大家hadoop2.10完全分布式,首先准备4台机器:1台nn(namenode);3台dn(datanode) IP hostname 进程 192.168.30.141 s141 nn(namenode) 192.168.30.142 s142 dn(datanode) 192.168.30.143 s143 dn(datanode) 192.168.30.144 s144 dn(datanode) 由于本人使用的是vmware虚拟机,所以在配置好一台机器后,使用克

ubuntu + hadoop2.5.2分布式环境配置

ubuntu + hadoop2.5.2分布式环境配置 我之前有详细写过hadoop-0.20.203.0rc1版本的环境搭建 hadoop学习笔记——环境搭建 http://www.cnblogs.com/huligong1234/p/3533382.html 本篇部分细节就不多说. 一.基础环境准备系统:(VirtualBox) ubuntu-12.04.2-desktop-i386.isohadoop版本:hadoop-2.5.2jdk版本:jdk-6u26-linux-i586.bin

Hadoop - Hadoop伪分布式搭建

进行Hadoop伪分布式搭建时,需要有一定的Linux命令基础, 因为Hadoop是搭建在Linux环境上的开源框架, Hadoop的框架最核心的设计就是:HDFS和MapReduce. 本文也主要讲述HDFS和MapReduce环境的搭建. 搭建环境: 虚拟机: VMware10 操作系统:CentOS-6.5 JDK版本:jdk-8u171-linux-x64 Hadoop版本:hadoop-2.7.3 使用工具:Xshell 6,Xftp 6,Notepad++ 虚拟机ip地址:192.1

Hadoop2.4.1分布式安装

1.做好下文中的所有配置:Hadoop1.2.1分布式安装-1-准备篇. 2.Hadoop2.x的发行版中有个小问题:libhadoop.so.1.0.0在64位OS中存在问题,因为它是32位的,在64位OS中hadoop启动时会报一个WARN的日志.这个包的作用是调用native的api,可以提高hadoop的性能,如果这个包失效,那就是使用jvm做压缩等工作,效率就会很低.处理方法就是重新编译Hadoop,见xxx(link  article). 3.在打算做namenode的机器上,wge