Ubuntu14.04下hadoop-2.6.0单机配置和伪分布式配置

在Ubuntu下创建hadoop用户组和用户

hadoop的管理员最好就是以后要登录桌面环境运行eclipse的用户,否则后面会有拒绝读写的问题出现。当然不是也有办法办法解决。

1. 创建hadoop用户组;

[html] view plaincopy

  1. sudo addgroup hadoop

2. 创建hadoop用户;

[html] view plaincopy

  1. sudo adduser -ingroup hadoop hadoop

3. 给hadoop用户添加权限,打开/etc/sudoers文件;

[html] view plaincopy

  1. sudo gedit /etc/sudoers

在root   ALL=(ALL:ALL)   ALL下添加hadoop   ALL=(ALL:ALL)  ALL.

在Ubuntu下安装JDK

具体见:http://blog.csdn.net/ggz631047367/article/details/42366687           //JAVA_HOME=/usr/lib/jvm/jdk1.8.0_25

安装ssh服务 

[html] view plaincopy

  1. sudo apt-get install ssh openssh-server

建立ssh无密码登录本机

切换到hadoop用户,执行以下命令:

[html] view plaincopy

  1. su - hadoop

ssh生成密钥有rsa和dsa两种生成方式,默认情况下采用rsa方式。

1. 创建ssh-key,,这里我们采用rsa方式;

[html] view plaincopy

  1. ssh-keygen -t rsa -P "" (注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的)

2. 进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的;

[html] view plaincopy

  1. cd ~/.ssh
  2. cat id_rsa.pub >> authorized_keys (完成后就可以无密码登录本机了。)

3. 登录localhost;

[html] view plaincopy

  1. ssh localhost

4. 执行退出命令;

[html] view plaincopy

  1. exit

安装hadoop

下载地址:http://apache.fayea.com/hadoop/common/stable/hadoop-2.6.0.tar.gz

1. 把hadoop解压到/usr/local下:

[html] view plaincopy

  1. sudo tar -zxvf hadoop-2.6.0.tar.gz
  2. sudo mv hadoop-2.6.0 /usr/local/hadoop
  3. sudo chmod -R 775 /usr/local/hadoop
  4. sudo chown -R hadoop:hadoop /usr/local/hadoop  //否则ssh会拒绝访问

2.配置

  • 修改bashrc的配置:
[html] view plaincopy

  1. sudo gedit ~/.bashrc


在文件末尾添加:

[html] view plaincopy

  1. #HADOOP VARIABLES START
  2. export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_25
  3. export HADOOP_INSTALL=/usr/local/hadoop
  4. export PATH=$PATH:$HADOOP_INSTALL/bin
  5. export PATH=$PATH:$HADOOP_INSTALL/sbin
  6. export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
  7. export HADOOP_COMMON_HOME=$HADOOP_INSTALL
  8. export HADOOP_HDFS_HOME=$HADOOP_INSTALL
  9. export YARN_HOME=$HADOOP_INSTALL
  10. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
  11. export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
  12. #HADOOP VARIABLES END

如果不知道JAVA_HOME可以通过命令获得:

[html] view plaincopy

  1. update-alternatives --config java

目录取到java根目录即可。

执行下面命令使改动生效:

[html] view plaincopy

  1. source ~/.bashrc
  • 修改hadoop-env.sh的配置:
[html] view plaincopy

  1. sudo gedit /usr/local/hadoop/etc/hadoop/hadoop-env.sh

找到JAVA_HOME改为上面的值。

测试

  • 通过执行hadoop自带实例WordCount验证是否安装成功
/usr/local/hadoop路径下创建input文件夹

[html] view plaincopy

  1. mkdir input
  2. cp README.txt input

在hadoop目录下执行WordCount:

[html] view plaincopy

  1. bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.6.0-sources.jar
  2. org.apache.hadoop.examples.WordCount input output

Hadoop伪分布式配置

sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

[html] view plaincopy

  1. <configuration>
  2. <property>
  3. <name>hadoop.tmp.dir</name>
  4. <value>/usr/local/hadoop/tmp</value>
  5. <description>Abase for other temporary directories.</description>
  6. </property>
  7. <property>
  8. <name>fs.defaultFS</name>
  9. <value>hdfs://localhost:9000</value>
  10. </property>
  11. </configuration>

sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml //此项不必要

[html] view plaincopy

  1. <configuration>
  2. <property>
  3. <name>mapred.job.tracker</name>
  4. <value>localhost:9001</value>
  5. </property>
  6. </configuration>

sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml

[html] view plaincopy

  1. <configuration>
  2. <property>
  3. <name>mapreduce.framework.name</name>
  4. <value>yarn</value>
  5. </property>
  6. <property>
  7. <name>yarn.nodemanager.aux-services</name>
  8. <value>mapreduce_shuffle</value>
  9. </property>
  10. </configuration>

sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml

[html] view plaincopy

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>1</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.name.dir</name>
  8. <value>file:/usr/local/hadoop/dfs/name</value>
  9. </property>
  10. <property>
  11. <name>dfs.datanode.data.dir</name>
  12. <value>file:/usr/local/hadoop/dfs/data</value>
  13. </property>
  14. <property>                 //这个属性节点是为了防止后面eclopse存在拒绝读写设置的
  15. <name>dfs.permissions</name>
  16. <value>false</value>
  17. </property>
  18. </configuration>

sudo gedit /usr/local/hadoop/etc/hadoop/masters 添加:localhost

sudo gedit /usr/local/hadoop/etc/hadoop/slaves  添加:localhost

关于配置的一点说明:上面只要配置 fs.defaultFS 和 dfs.replication 就可以运行,不过有个说法是如没有配置
hadoop.tmp.dir 参数,此时 Hadoop 默认的使用的临时目录为
/tmp/hadoo-hadoop,而这个目录在每次重启后都会被干掉,必须重新执行 format
才行(未验证),所以伪分布式配置中最好还是设置一下。

配置完成后,首先在 Hadoop 目录下创建所需的临时目录:

[html] view plaincopy

  1. cd /usr/local/hadoop
  2. mkdir tmp dfs dfs/name dfs/data

接着初始化文件系统HDFS。

[html] view plaincopy

  1. bin/hdfs namenode -format

成功的话,最后的提示如下,Exitting with status 0 表示成功,Exitting with status 1: 则是出错。

[html] view plaincopy

  1. sbin/start-dfs.sh
  2. sbin/start-yarn.sh

Unable to load native-hadoop library for your platform这个提示,解决方式:
1、重新编译源码后将新的lib/native替换到集群中原来的lib/native
2、修改hadoop-env.sh ,增加
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib:$HADOOP_PREFIX/lib/native"

Namenode information:http://localhost:50070来查看Hadoop的信息。

All Applications:http://http://2xx.81.8x.1xx:8088/,将其中的2xx.81.8x.1xx替换为你的实际IP地址。

运行例子:

1.先在hdfs上建个文件夹  bin/hdfs dfs -mkdir -p /user/ha1/input

bin/hdfs dfs -mkdir -p /user/ha1/output

2.上传一些文件:bin/hdfs dfs -put etc/hadoop/  /user/ha1/input  把etc/hadoop文件上传到hdfs的/user/ha1/input中

3.执行指令

bin/hadoop jar
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep
/user/ha1/input/hadoop  /user/ha1/output/temp ‘dfs[a-z.]+‘

4.查看结果

bin/hdfs dfs -cat /user/ha1/output/temp/*

[html] view plaincopy

  1. 8   dfs.audit.logger
  2. 4   dfs.class
  3. 3   dfs.server.namenode.
  4. 2   dfs.audit.log.maxbackupindex
  5. 2   dfs.period
  6. 2   dfs.audit.log.maxfilesize
  7. 1   dfsmetrics.log
  8. 1   dfsadmin
  9. 1   dfs.servers
  10. 1   dfs.replication
  11. 1   dfs.file
  12. 1   dfs.datanode.data.dir
  13. 1   dfs.namenode.name.dir
时间: 2024-10-15 06:21:16

Ubuntu14.04下hadoop-2.6.0单机配置和伪分布式配置的相关文章

一、Ubuntu14.04下安装Hadoop2.4.0 (单机模式)

一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可. 如果不输入密码,回车后会重新提示输入密码,即密码不能为空. 最后确认信息是否正确,如果没问题,输入 Y,回车即可. 3.为ha

二、Ubuntu14.04下安装Hadoop2.4.0 (伪分布模式)

在Ubuntu14.04下安装Hadoop2.4.0 (单机模式)基础上配置 一.配置core-site.xml /usr/local/hadoop/etc/hadoop/core-site.xml 包含了hadoop启动时的配置信息. 编辑器中打开此文件 sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml 在该文件的<configuration></configuration>之间增加如下内容: <property&g

Ubuntu 12.04下Hadoop 2.2.0 集群搭建(原创)

现在大家可以跟我一起来实现Ubuntu 12.04下Hadoop 2.2.0 集群搭建,在这里我使用了两台服务器,一台作为master即namenode主机,另一台作为slave即datanode主机,增加更多的slave只需重复slave部分的内容即可. 系统版本: master:Ubuntu 12.04 slave:Ubuntu 12.04 hadoop:hadoop 2.2.0 安装ssh服务:sudo apt-get install ssh 有时也要更新一下vim:sudo apt-ge

linux编译64bitHadoop (eg: ubuntu14.04 and hadoop 2.3.0)

Hadoop官网提供的编译好的hadoop-2.3.0.tar.gz二进制包是在32位系统上编译的,在64系统上运行会有一些错误,比如: WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 此时需要自行编译hadoop 2.30 源码.本人编译的hadoop 2.30的二进制包经实验证明可以

Ubuntu14.04下安装Hadoop2.4.0 (单机模式)

一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可. 如果不输入密码,回车后会重新提示输入密码,即密码不能为空. 最后确认信息是否正确,如果没问题,输入 Y,回车即可. 3.为ha

Ubuntu14.04下安装redis-3.2.0以及开机自启动

去官网下载Redis-3.2.0.tar.gz,将redis-3.2.0.tar.gz放入/opt目录下 解压redis-3.2.0.tar.gz [email protected]:/opt$ sudo tar -zxvf redis-3.2.0.tar.gz 编译redis [email protected]:/opt$ cd redis-3.2.0/ [email protected]:/opt/redis-3.2.0$ sudo make 安装 [email protected]:/op

Ubuntu14.04下安装Hadoop2.5.1 (单机模式)

本文地址:http://www.cnblogs.com/archimedes/p/hadoop-standalone-mode.html,转载请注明源地址. 一.在Ubuntu下创建hadoop组和hadoop用户 1.创建hadoop用户组 sudo addgroup hadoop 2.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可.如果不输入密码,回车后会重新提示输入

转载:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

原文 http://www.powerxing.com/install-hadoop/ 当开始着手实践 Hadoop 时,安装 Hadoop 往往会成为新手的一道门槛.尽管安装其实很简单,书上有写到,官方网站也有 Hadoop 安装配置教程,但由于对 Linux 环境不熟悉,书上跟官网上简略的安装步骤新手往往 Hold 不住.加上网上不少教程也甚是坑,导致新手折腾老几天愣是没装好,很是打击学习热情. 本教程适合于原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1

Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0/Ubuntu14.04

参见:http://www.powerxing.com/install-hadoop/ 完全拷贝至上面网址 环境 本教程使用 Ubuntu 14.04 64位 作为系统环境(Ubuntu 12.04 也行,32位.64位均可),请自行安装系统. 如果用的是 RedHat/CentOS 系统,请查看相应的CentOS安装Hadoop教程_单机伪分布式配置. 本教程基于原生 Hadoop 2,在 Hadoop 2.6.0 (stable) 版本下验证通过,可适合任何 Hadoop 2.x.y 版本,