Hadoop2.7.1安装与配置

Hadoop2.7.1集群环境的搭建

s204、s205是我的两台服务器hostname,可以用你对应的ip或者hostname代替

工具/原料

  • jdk、ssh免登录

方法/步骤

  1. 1

    首先去Apache下载最新的安装包吧

    2.7.0是测试版,2.7.1是稳定版的就用这个吧

  2.  

    tar zxvf hadoop-2.7.1.tar.gz

    解压安装包

  3.  

    安装目录下创建数据存放的文件夹,tmp、hdfs、hdfs/data、hdfs/name

  4.  

    修改/home/yy/hadoop-2.7.1/etc/hadoop下的配置文件

    修改core-site.xml,加上

    <property>

    <name>fs.defaultFS</name>

    <value>hdfs://s204:9000</value>

    </property>

    <property>

    <name>hadoop.tmp.dir</name>

    <value>file:/home/yy/hadoop-2.7.1/tmp</value>

    </property>

    <property>

    <name>io.file.buffer.size</name>

    <value>131702</value>

    </property>

  5.  

    修改hdfs-site.xml,加上

    <property>

    <name>dfs.namenode.name.dir</name>

    <value>file:/home/yy/hadoop-2.7.1/dfs/name</value>

    </property>

    <property>

    <name>dfs.datanode.data.dir</name>

    <value>file:/home/yy/hadoop-2.7.1/dfs/data</value>

    </property>

    <property>

    <name>dfs.replication</name>

    <value>2</value>

    </property>

    <property>

    <name>dfs.namenode.secondary.http-address</name>

    <value>s204:9001</value>

    </property>

    <property>

    <name>dfs.webhdfs.enabled</name>

    <value>true</value>

    </property>

  6.  

    修改mapred-site.xml,加上

    <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

    </property>

    <property>

    <name>mapreduce.jobhistory.address</name>

    <value>s204:10020</value>

    </property>

    <property>

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>s204:19888</value>

    </property>

  7.  

    修改yarn-site.xml,加上

    <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

    </property>

    <property>

    <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>

    <value>org.apache.hadoop.mapred.ShuffleHandler</value>

    </property>

    <property>

    <name>yarn.resourcemanager.address</name>

    <value>s204:8032</value>

    </property>

    <property>

    <name>yarn.resourcemanager.scheduler.address</name>

    <value>s204:8030</value>

    </property>

    <property>

    <name>yarn.resourcemanager.resource-tracker.address</name>

    <value>s204:8031</value>

    </property>

    <property>

    <name>yarn.resourcemanager.admin.address</name>

    <value>s204:8033</value>

    </property>

    <property>

    <name>yarn.resourcemanager.webapp.address</name>

    <value>s204:8088</value>

    </property>

    <property>

    <name>yarn.nodemanager.resource.memory-mb</name>

    <value>768</value>

    </property>

  8.  

    配置/home/yy/hadoop-2.7.1/etc/hadoop目录下hadoop-env.sh、yarn-env.sh的JAVA_HOME,否则启动时会报error

    export JAVA_HOME=/home/yy/jdk1.8

  9.  

    配置/home/yy/hadoop-2.7.1/etc/hadoop目录下slaves

    加上你的从服务器,我这里只有一个s205

    配置成功后,将hadhoop复制到各个从服务器上

    scp -r /home/yy/hadoop-2.7.1 [email protected]:/home/yy/

  10.  

    主服务器上执行bin/hdfs namenode -format

    进行初始化

    sbin目录下执行 ./start-all.sh

    可以使用jps查看信息

    停止的话,输入命令,sbin/stop-all.sh

  11.  

    这时可以浏览器打开s204:8088查看集群信息啦

    到此配置就成功啦,开始你的大数据旅程吧。。。

时间: 2024-10-28 11:00:43

Hadoop2.7.1安装与配置的相关文章

大数据笔记(三)——Hadoop2.0的安装与配置

一.Hadoop安装部署的预备条件 准备:1.安装Linux和JDK 2.关闭防火墙    3.配置主机名 解压:tar -zxvf hadoop-2.7.3.tar.gz -C ~/training/ 设置环境变量:vi ~/.bash_profile HADOOP_HOME=/root/training/hadoop-2.7.3 export HADOOP_HOME PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH export PATH sourc

Hadoop2.8.2安装与配置(单机)

下载Hadoop 解压并移动到/software目录: tar -zxvf hadoop-2.8.2.tar.gz mv hadoop-2.8.2 /software/hadoop 在/etc/profile文件添加: export HADOOP_HOME=/software/hadoop export HADOOP_INSTALL=$HADOOP_HOME export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HAD

hadoop2.5.1+hbase1.1.2安装与配置

今天正在了解HBase和Hadoop,了解到HBase1.1.x为稳定版,对应的Hadoop2.5.x是最新的支持此版本HBase的,同时jdk版本为jdk7才能支持.--本段话内容参考自Apache官方文档: 1.本表格为jdk与hbase版本对应: 2.以下表格为hbase与Hadoop版本对应. Hadoop version support matrix "S" = supported "X" = not supported "NT" =

Hadoop2.6.0安装 — 集群

文 / vincentzh 原文连接:http://www.cnblogs.com/vincentzh/p/6034187.html 这里写点 Hadoop2.6.0集群的安装和简单配置,一方面是为自己学习的过程做以记录,另一方面希望也能帮助到和LZ一样的Hadoop初学者,去搭建自己的学习和练习操作环境,后期的 MapReduce 开发环境的配置和 MapReduce 程序开发会慢慢更新出来,LZ也是边学习边记录更新博客,路人如有问题欢迎提出来一起探讨解决,不足的地方希望路人多指教,共勉! 目

Hadoop-2.4.0安装和wordcount执行验证

Hadoop-2.4.0安装和wordcount执行验证 下面描写叙述了64位centos6.5机器下,安装32位hadoop-2.4.0,并通过执行 系统自带的WordCount样例来验证服务正确性的步骤. 建立文件夹 /home/QiumingLu/hadoop-2.4.0,以后这个是hadoop的安装文件夹. 安装hadoop-2.4.0,解压hadoop-2.4.0.tar.gz到文件夹 /home/QiumingLu/hadoop-2.4.0就可以 [[email protected]

Hadoop第3周练习--Hadoop2.X编译安装和实验

1    练习题目 2    编译Hadoop2.X 64bit 2.1  运行环境说明 2.1.1   硬软件环境 2.1.2   集群网络环境 2.2  环境搭建 2.2.1   JDK安装和Java环境变量配置 2.2.2   安装并设置maven 2.2.3   以root用户使用yum安装svn 2.2.4   以root用户使用yum安装autoconf automake libtool cmake 2.2.5   以root用户使用yum安装ncurses-devel 2.2.6 

HBase 的安装与配置

实验简介 本次实验学习和了解 HBase 在不同模式下的配置和安装,以及 HBase 后续的启动和停止等. 一.实验环境说明 1. 环境登录 无需密码自动登录,系统用户名shiyanlou,密码shiyanlou 2. 环境介绍 本实验环境采用带桌面的Ubuntu Linux环境,实验中会用到桌面上的程序: XfceTerminal: Linux命令行终端,打开后会进入Bash环境,可以使用Linux命令: Firefox:浏览器,可以用在需要前端界面的课程里,只需要打开环境里写的HTML/JS

Hadoop2伪分布模式安装

参照Apache的官方文档,Hadoop2还是蛮好搭建的,但是搭建好后,MapReduce的JobHistory页面却没法进去,这是因为JobHistory没有配置正确或者服务没有启动起来.本文将梳理伪分布模式的搭建过程,并给出配置文档,让你不再为搭建这些过程烦恼. 准备 安装程序获取:从官网上下载,从Apache Download Mirrors选择一个镜像位置,然后选择一个Hadoop版本,下载hadoop-2.*.*.tar.gz 安装jdk: sudo apt-get autoremov

在hadoop2.2上安装hive

折腾了大半天终于把hive安装在hadoop2.2上了,为了今后有可查阅的资料,这里记录下整个过程,如有不对的地方,敬请拍砖!(安装hive要稍微简单一点,因为只需要部署在一台机器上就可以了) 下载:hive-0.9.0.tar.gz 解压到某路径中, 首先,将解压出来的mysql-connector-java-5.1.22-bin.jar复制到/hive下的lib路径里 设置环境变量,修改/etc/profile HIVE_HOME=/opt/hive-0.13.1 HADOOP_CONF_D