hadoop集群配置

一.首先我们需要一个 hadoop-2.8.5.tar.gz

这里就省略了什么解压,指定路径什么的步骤啦

1.配置hadoop环境变量

vim /etc/profile

export HADOOP_HOME=/usr/java/hadoop-2.8.5  (按自己的路径来)

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

记得 source   /etc/profile

2.修改hadoop的配置文件

cd /usr/java/hadoop-2.8.5/etc/hadoop

  2.1.hadoop-env.sh

01.vim  hadoop-env.sh

02.在文件中加入:export  JAVA_HOME=/usr/java/jdk1.8.0_151  (按自己的路径来)

   2.2.yarn-env.sh

01.vim yarn-env.sh

02.在文件中加入: export  JAVA_HOME=/usr/java/jdk1.8.0_151  (按自己的路径来)

  2.3.slaves

01.vim slaves

02.删除原有的localhost

  2.4.core-site.xml

01.vim  core-site.xml

02.在文件中的configuration节点里加入

<property>
   <name>fs.defaultFS</name>
   <value>hdfs://master:9000</value>
</property>

  <property>
     <name>hadoop.tmp.dir</name>
     <value>/usr/java/hadoop-2.8.5/tmp</value> 
</property>

这里没有tmp文件,需要我们手动建一个

  2.5.hdfs-site.xml

<property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>master:50090</value>
    </property>
    <property>
      <name>dfs.replication</name>
      <value>2</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/usr/java/hadoop-2.8.5/hdfs/name</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/usr/java/hadoop-2.8.5/hdfs/data</value>
    </property>

  2.6.yarn-site.xml

<property>
          <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
  </property>
  <property>
           <name>yarn.resourcemanager.address</name>
           <value>master:8032</value>
  </property>
  <property>
          <name>yarn.resourcemanager.scheduler.address</name>
          <value>master:8030</value>
  </property>
<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
</property>
<property>
         <name>yarn.resourcemanager.resource-tracker.address</name>
         <value>master:8031</value>
     </property>
     <property>
         <name>yarn.resourcemanager.admin.address</name>
         <value>master:8033</value>
     </property>
     <property>
         <name>yarn.resourcemanager.webapp.address</name>
         <value>master:8088</value>
     </property>

  2.7.mapred-site.xml

mapred-site.xml.template 是存在的

mapred-site.xml不存在

注意:先要copy一份

cp mapred-site.xml.template  mapred-site.xml

然后编辑

vim  mapred-site.xml

新增以下内容

<property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

  </property>

  <property>

    <name>mapreduce.jobhistory.address</name>

    <value>master:10020</value>

  </property>

  <property>

    <name>mapreduce.jobhistory.webapp.address</name>

    <value>master:19888</value>

  </property>

  2.8.把配置好的hadoop文件复制到其他的子机器中

scp -r /usr/java/hadoop-2.8.5  [email protected]:/usr/java/hadoop-2.8.5

scp -r /usr/java/hadoop-2.8.5  [email protected]:/usr/java/hadoop-2.8.5

  2.9.把配置好的/etc/profile复制到其他两个子机器中

scp /etc/profile  [email protected]:/etc/profile

scp /etc/profile  [email protected]:/etc/profile

之后在每个子机器中使用 source /etc/profile 使文件生效

  2.10在master 主机器中运行

hdfs namenode -format

  2.11.在master 主机器中启动hadoop环境

进入/usr/java/hadoop-2.8.5/sbin

 ./start-all.sh   启动hadoop集群

./stop-all.sh  关闭hadoop集群

原文地址:https://www.cnblogs.com/wang2386033566/p/10077179.html

时间: 2024-08-26 12:06:25

hadoop集群配置的相关文章

Hadoop 集群配置记录小结

Hadoop集群配置往往按照网上教程就可以"配置成功",但是你自己在操作的时候会有很多奇奇怪怪的问题出现, 我在这里整理了一下常见的问题与处理方法: 1.配置/etc/hosts 这个文件至关重要,他决定了各个节点是否能够成功通信,有两个地方要注意 1.127.0.0.1 localhost 要配置在其他的地址之后 2.127.0.0.1 hostname 配置要删掉,因为有对应的配置,比如192.168.0.150 service1 常见问题:节点间无法通信,datanode无法和n

Hadoop集群配置心得(低配置集群+自动同步配置)

本文为本人原创,首发到炼数成金 http://f.dataguru.cn/thread-138720-1-1.html. 情况是这样的,我没有一个非常强劲的电脑来搞出一个性能非常NB的服务器集群,相信很多人也跟我差不多,所以现在把我的低配置集群经验拿出来写一下好了. 我的配备:1)五六年前的赛扬单核处理器2G内存笔记本 2)公司给配的ThinkpadT420,i5双核处理器4G内存(可用内存只有3.4G,是因为装的是32位系统的缘故吧...) 就算是用公司配置的电脑,做出来三台1G内存的虚拟机也

hadoop集群配置和在windows系统上运用java操作hdfs

安装 配置 概念 hadoop常用shell命令 使用java操作hadoop 本文介绍hadoop集群配置和在windows系统上运用java操作hdfs 安装 http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.1.1/ sudo apt-get install ssh sudo apt-get install rsync mkdir /usr/local/hadoop tar -zxvf hadoop-3.1.1.tar.gz -C

Hadoop集群配置过程中需要注意的问题

环境:VMwareWorkstation8.0 和 Ubuntu14.04 1. 使用三台虚拟机搭建Hadoop集群 2. 一定要在每台机器上配置ssh免密码登录 3. 由于需要给/etc/hosts文件配置3台虚拟机的IP,所以尽量给三台虚拟机设置静态IP.不然即使之前整个集群搭建成功了,但是当某一台的IP变化后,这个集群又不可以使用了. 例如报如下错误: 当重新将/etc/hosts中各个节点的ip以及mapred-site.xml中master节点的ip改正确后,在重新启动hadoop就好

Hadoop集群配置(最全面总结)

通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为DataNode也作为TaskTracker.这些机器是slaves\ 官方地址:(http://Hadoop.apache.org/common/docs/r0.19.2/cn/cluster_setup.html) 1 先决条件 确保在你集群中的每个节点上都安装了所有必需软件:sun-JDK  ,ssh,Hadoop JavaTM1.5.x,必须安装,建议

为已存在的Hadoop集群配置HDFS Federation

一.实验目的 1. 现有Hadoop集群只有一个NameNode,现在要增加一个NameNode. 2. 两个NameNode构成HDFS Federation. 3. 不重启现有集群,不影响数据访问. 二.实验环境 4台CentOS release 6.4虚拟机,IP地址为 192.168.56.101 master 192.168.56.102 slave1 192.168.56.103 slave2 192.168.56.104 kettle 其中kettle是新增的一台"干净"

Hadoop集群配置免密登录方法

Hadoop集群包含1个主节点和3个从节点,需要实现各节点之间的免密码登录,下面介绍具体的实现方法. 一.Hadoop集群环境 二.免密登录原理 每台主机authorized_keys文件里面包含的主机(ssh密钥),该主机都能无密码登录,所以只要每台主机的authorized_keys文件里面都放入其他主机(需要无密码登录的主机)的ssh密钥就行了. 三.实现方法 1. 配置每个节点的hosts文件 #vim /etc/hosts1 192.168.44.3 hadoop01 2 192.16

Hadoop集群(第5期)_Hadoop安装配置

1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构. 对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve.一个HDFS集群是由一个NameNode和若干个DataNode组成的.其中Nam

Hadoop集群_Hadoop安装配置

1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构. 对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve.一个HDFS集群是由一个NameNode和若干个DataNode组成的.其中Nam