Hadoop2.2.0分布式环境配置笔记2-编译64位hadoop源码

11、配置hadoop分布式环境!  三台机器都需要这么配置

1)、将/opt/modules/hadoop-2.2.0-src重命名  mv /opt/modules/hadoop-2.2.0-src/ /opt/modules/hadoop-2.2.0-src_x32_back

2)、解压64位源码

tar -zxvf /opt/modules/hadoop-2.2.0-src_x32_back/hadoop-dist/target/hadoop-2.2.0.tar.gz -C /opt/modules

3)、设置hosts

vi /etc/hosts

192.168.1.200 Hadoop-Yarn.Hark.Com Hadoop-Yarn
192.168.1.201 Hadoop-Slave1.Hark.Com Hadoop-Slave1
192.168.1.202 Hadoop-Slave2.Hark.Com Hadoop-Slave2

4)、将HADOOP安装目录设置至全局变量中

vi /etc/profile

# SET HADOOP
export HADOOP_HOME=/opt/modules/hadoop-2.2.0
export PATH=$PATH:$HADOOP_HOME/bin

source /etc/profile

5)、为hadoop,yarn,mr设置java环境变量

在/opt/modules/hadoop-2.2.0/etc/hadoop中的hadoop-env.sh ,mapred-env.sh,yarn-ent.sh

添加

# SET JAVA

export JAVA_HOME=/opt/modules/jdk1.6.0_45

6)、设置site

在/opt/modules/hadoop-2.2.0/etc/hadoop分别设置core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml

core-site.xml :

<property>         
     <name>fs.default.name</name>  <!--namenode的ID地址与端口号--> <!--fs.default.name这个是已经过时了,在hadoop2.2.0应该叫fs.defaultFS-->
     <value>hdfs://Hadoop-Yarn.Hark.Com:8020</value>
</property>
<property>
     <name>hadoop.tmp.dir</name>  <!--临时目录-->  <!--注意,需要创建mkdir -p data/tmp目录-->
     <value>/opt/data/tmp</value>  <!--这里需要使用root权限创建目录,同时需要chown给权限至hadoop:hadoop 同时,需要将这个配置复制到所有的机器中-->
</property>

hdfs-site.xml:<!--所有的机器都需要有这个配置文件,并且是相同的-->

<property>          
     <name>dfs.namenode.name.dir</name>  
     <value>file:///opt/data/dfs/nn/name</value>
</property>
<property>          
     <name>dfs.namenode.edits.dir</name>  
     <value>file:///opt/data/dfs/nn/edits</value>
</property>
<property>          
     <name>dfs.datanode.data.dir</name>  
     <value>file:///opt/data/dfs/dn</value>
</property>
<property>          
     <name>dfs.namenode.checkpoint.dir</name>  
     <value>file:///opt/data/dfs/snn/name</value>
</property>
<property>          
     <name>dfs.namenode.checkpoint.edits.dir</name>  
     <value>file:///opt/data/dfs/snn/edits</value>
</property>
<property>          
     <name>dfs.namenode.http-address</name>  
     <value>hadoop-yarn.hark.com:50070</value>
</property>
<property>          
     <name>dfs.namenode.secondary.http-address</name>  
     <value>hadoop-slave1.hark.com:50090</value>
</property>
<property>          
     <name>dfs.replication</name>  <!--主从复制的节点个数-->
     <value>3</value>
</property>

yarn-site.xml:

<property>
     <name>yarn.resourcemanager.hostname</name>
     <value>hadoop-yarn.hark.com</value>
</property>
<property>
     <name>yarn.nodemanager.aux-services</name>
     <value>mapreduce_shuffle</value>
</property>

mapred-site.xml

<property>                           
     <name>mapreduce.framework.name</name>   <!--标名mapreduce是运行的yarn资源平台上的-->
     <value>yarn</value>
</property>

还可以配置其它的各种默认目录

7)、对于NameNode进行格式化

bin/hdfs namenode -format

格式化时,可以指定ClusterID(集群ID),即:bin/hdfs namenode -format -clusterId xxxxxx

集群ID,在配置HA是会使用的。

8)、设置slaves

将所有的node的主机名都放入slaves中

9)、启动服务~!

三种启动方法:

方法一:

通过sbin/hadoop-daemon.sh

sbin/yarn-daemon.sh分别启动

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

sbin/hadoop-daemon.sh start secondarynamenode

sbin/yarn-daemon.sh start resourcemanager

sbin/yarn-daemon.sh start nodemanager

sbin/mr-jobhistory-daemon.sh start historyserver

启动服务后, 即可查看环境信息:

http://hadoop-yarn.hark.com:50070/dfshealth.jsp    hdfs信息

http://hadoop-yarn.hark.com:50090/status.jsp   SecondaryNameNode 信息

http://hadoop-yarn.hark.com:8088/cluster    yarn信息

http://hadoop-yarn.hark.com:19888/jobhistory d

方法二、方法三:

都需要配置ssh免登录

配置方法:

生成公钥:

ssh-keygen -t rsa

公钥私钥最终会生成至/home/hadoop/.ssh目录中

将公钥copy至指定的远程服务器

ssh-copy-id [email protected]

然后使用

start-dfs.sh

start-yarn.sh

进行启用

第三种不建议,使用

start-all.sh

10)、相关命令

logs中可以查看日志  ulimit -a

bin/hdfs dfs -mkdir /test   创建文件夹

bin/hdfs dfs -put ./test.txt /test  将本地test.txt放入hdfs中/test中

bin/hdfs dfs -ls /  查看根目录文件

11)、运行官方的JAR包进行测试

bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar pi 5 20

可以在8088来监控各种节点状态

bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /test/ /testout/

12)、默认的配置文件

share/hadoop/common/hadoop.common.jar 里边的core.default.xml

share/hadoop/hdfs/hadoop-hdfs.jar里边的hdfs.default.xml

13)、远程主机复制文件

scp -r /opt/modules/jdk [email protected]:/opt/modules

14)、之前发现服务没有起来,是配置hdfs-site.xml时出现了问题。 应该是file:///opt.....  之前是两个杠

Hadoop2.2.0分布式环境配置笔记2-编译64位hadoop源码

时间: 2024-10-10 00:05:27

Hadoop2.2.0分布式环境配置笔记2-编译64位hadoop源码的相关文章

Hadoop2.2.0分布式环境配置笔记1-编译64位hadoop源码

我的测试环境是三台机器 分别是 Hadoop-Yarn.Hark.Com 192.168.1.200 Hadoop-Slave1.Hark.Com 192.168.1.201 Hadoop.Slave2.Hark.Com 192.168.1.202 我为了自己能充分练习hadoop 64位源码编译,所以三台机器都进行了下边的配置 环境: vmware9+centos6.4+hadoop2.2.0 0.创建hadoop帐号,大部分操作都要使用hadoop帐号的 1.关闭窗口模式 使用root账号

ubuntu + hadoop2.5.2分布式环境配置

ubuntu + hadoop2.5.2分布式环境配置 我之前有详细写过hadoop-0.20.203.0rc1版本的环境搭建 hadoop学习笔记——环境搭建 http://www.cnblogs.com/huligong1234/p/3533382.html 本篇部分细节就不多说. 一.基础环境准备系统:(VirtualBox) ubuntu-12.04.2-desktop-i386.isohadoop版本:hadoop-2.5.2jdk版本:jdk-6u26-linux-i586.bin

hadoop2.6.0汇总:新增功能最新编译 32位、64位安装、源码包、API下载及部署文档

相关内容: hadoop2.5.2汇总:新增功能最新编译 32位.64位安装.源码包.API.eclipse插件下载Hadoop2.5 Eclipse插件制作.连接集群视频.及hadoop-eclipse-plugin-2.5.0插件下载hadoop2.5.1汇总:最新编译 32位.64位安装.源码包.API下载及新特性等 新手指导:hadoop官网介绍及如何下载hadoop(2.4)各个版本与查看hadoop API介绍 从零教你在Linux环境下(ubuntu 12.04)如何编译hadoo

Mac搭建Hadoop源码阅读环境

1.本次Hadoop源码阅读环境使用的阅读工具是idea,Hadoop版本是2.7.3.需要安装的工具包括idea.jdk.maven.protobuf等 2.jdk,使用的版本是1.8版,在jdk官网下载jdk-8u111-macosx-x64.dmg,点击安装,一路next. 3.idea安装,略 4.maven,使用的版本是3.3.9,下载apache-maven-3.3.9-bin.tar,解压: tar -zxvf  apache-maven-3.3.9-bin.tar 进入 Mave

Hadoop2.x伪分布式环境搭建(一)

1.安装hadoop环境,以hadoop-2.5.0版本为例,搭建伪分布式环境,所需要工具包提供网盘下载:http://pan.baidu.com/s/1o8HR0Qu 2.上传所需要的工具包到linux相对就应的目录中 3.接上篇(Linux基础环境的各项配置(三)中最后一部分,需卸载系统自带的jdk,以免后续安装的jdk产生冲突),卸载jdk完成后,安装jdk-7u67-linux-x64.tar.gz版本,上述工具包可下载 (1).解压JDK tar -zxf jdk-7u67-linux

hbase centOS生产环境配置笔记 (1 NameNode, 1 ResourceManager, 3 DataNode)

本次是第一次在生产环境部署HBase,本文若有配置上的不妥之处还请高手指正. hadoop版本:hadoop-2.4.1 HBase版本:hbase-0.98.6.1-hadoop2 JDK:1.6 操作系统:centOS6.3 64bit 1. 安装snappy #yum install snappyInstalled: snappy.x86_64 0:1.1.0-1.el6 #yum install snappy-devel 记录一下,当前GCC版本4.4.7 2. 由于hadoop官网下载

(转)Eclipse下搭建Hadoop2.4.0开发环境

Eclipse下搭建Hadoop2.4.0开发环境 一.安装Eclipse 下载Eclipse,解压安装,例如安装到/usr/local,即/usr/local/eclipse 4.3.1版本下载地址:http://pan.baidu.com/s/1eQkpRgu 二.在eclipse上安装hadoop插件 1.下载hadoop插件 下载地址:http://pan.baidu.com/s/1mgiHFok 此zip文件包含了源码,我们使用使用编译好的jar即可,解压后,release文件夹中的h

Spark1.0.0 分布式环境搭建

软件版本如下: Hostname IP Hadoop版本 Hadoop 功能 系统 master 192.168.119.128 1.1.2 namenode jdk1.6+hadoop+scala2.9.3+spark1.0.0 centos4.9 slave1 192.168.119.129 1.1.2 datanode jdk1.6+hadoop+scala2.9.3+spark1.0.0 centos4.9 slave2 192.168.119.130 1.1.2 datanode jd

Ubuntu虚拟机+ROS+Android开发环境配置笔记

Ubuntu虚拟机+ROS+Android开发环境配置笔记 虚拟机设置: 1.本地环境:Windows 7:VMWare:联网 2.虚拟环境 :Ubuntu 14.04, 比较稳定,且支持很多ROS 3.虚拟机配置:硬盘至少50G,因为整个工具链配置起来需要很多空间,性能方面可以尽量往高配置. 4.虚拟环境搭建起来后,Ubuntu会弹出提示窗口询问是否升级软件,升级完后重启,约30分钟,取决于网络环境. 5.重启后,terminal执行以下: $ sudo apt-get upgrade $ s