hadoop2.7.0实践-环境搭建

文档说明

本文档为hadoop搭建实践文档,相关理论可到hadoop官网查看学习。

操作系统:Ubuntu14 x64位

Hadoop:Hadoop 2.7.0

Ubuntu官网:http://www.ubuntu.com/download/desktop

下载地址:

http://211.167.105.77:83/1Q2W3E4R5T6Y7U8I9O0P1Z2X3C4V5B/releases.ubuntu.com/14.04.2/ubuntu-14.04.2-desktop-amd64.iso

Hadoop官网:http://hadoop.apache.org/releases.html

单机版配置官网说明

http://hadoop.apache.org/docs/r2.7.0/hadoop-project-dist/hadoop-common/SingleCluster.html

1.安装Ubuntu

可以将iso文件格式化到U盘中,安装Ubuntu系统,具体实施步骤可自行百度。

2.安装配置Jdk

步骤参见:http://wxinpeng.iteye.com/blog/2098955

2.1.下载jdk-7u79-linux-x64.tar.gz

下载网址:

http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html

2.2.解压JDK

$sudo tar zxvf jdk-7u79-linux-x64.tar.gz -C /usr/lib/jvm

2.3.设置环境变量(全局)

$sudo gedit /etc/profile

打开profile文件输入

export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_79
export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
export PATH="$JAVA_HOME/bin:$PATH"

2.4.设置系统默认JDK

$sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/jdk1.7.0_79/bin/java 300
$sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1.7.0_79/bin/javac 300
$sudo update-alternatives --config java

2.5.验证JDK

$java -version

3.安装配置hadoop

3.1.下载hadoop

3.2.配置对应包

$ sudo apt-get install ssh
$ sudo apt-get install rsync

3.3.配置etc/hadoop/hadoop-env.sh

# set to the root of your Java installation
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_79

3.4.测试一下

$bin/hadoop

3.5.运行简单例子

$ mkdir input
$ cp etc/hadoop/*.xml input
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar grep input output ‘dfs[a-z.]+‘
$ cat output/*

3.6.配置相关文件

文件etc/hadoop/core-site.xml:

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

文件etc/hadoop/hdfs-site.xml:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

3.7.检测ssh

$ssh localhost

3.8.执行mapreduce job

1)格式化文件系统

 $ bin/hdfs namenode –format

2)启动服务

$ sbin/start-dfs.sh

3)浏览网页

NameNode - http://localhost:50070/

4)创建目录

$ bin/hdfs dfs -mkdir /user
$ bin/hdfs dfs -mkdir /user/jsl

5)复制文件

$ bin/hdfs dfs -put etc/hadoop input

6)执行程序

$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar grep input output ‘dfs[a-z.]+‘

7)查看结果

$ bin/hdfs dfs -get output
$ cat output/*

8)退出服务

$sbin/stop-dfs.sh

4.配置yarn

Yarn是hadoop的资源调度器,可以配置mapreduce job基于yarn运行。

1)配置etc/hadoop/mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

2)配置etc/hadoop/yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

3)启动服务

$ sbin/start-yarn.sh

4)浏览检测

ResourceManager - http://localhost:8088/

5)退出服务

$ sbin/stop-yarn.sh

常见问题及命令

1)查看对应hadoop版本

file lib/native/libhadoop.so.1.0.0

2)查看操作系统对应版本

cat /etc/issue

3)版本不一致时调整

删除临时目录

cd /tmp/hadoop-jsl/dfs/data
rm -rf current

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-12-25 12:03:51

hadoop2.7.0实践-环境搭建的相关文章

hadoop2.7.0实践- WordCount

环境要求 说明:本文档为wordcount的mapreduce job编写及运行文档. 操作系统:Ubuntu14 x64位 Hadoop:Hadoop 2.7.0 Hadoop官网:http://hadoop.apache.org/releases.html MapReduce参照官网步骤: http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTu

(转)Eclipse下搭建Hadoop2.4.0开发环境

Eclipse下搭建Hadoop2.4.0开发环境 一.安装Eclipse 下载Eclipse,解压安装,例如安装到/usr/local,即/usr/local/eclipse 4.3.1版本下载地址:http://pan.baidu.com/s/1eQkpRgu 二.在eclipse上安装hadoop插件 1.下载hadoop插件 下载地址:http://pan.baidu.com/s/1mgiHFok 此zip文件包含了源码,我们使用使用编译好的jar即可,解压后,release文件夹中的h

Ubuntu14.04下Hadoop2.2.0集群搭建

系统版本: master: Ubuntu 14.04  salve1: Ubuntu 14.04 hadoop: hadoop 2.2.0 1.系统配置以及安装SSH无密码登陆环境(master&slaves): 修改本机(master)和子节点(slaveN)机器名:打开/etc/hostname文件 sudo gedit /etc/hostname (修改后需重启才能生效) 修改host文件(映射各个节点IP): sudo gedit /etc/hosts 在后面添加内容为: 172.22.

Hadoop2.6集群环境搭建

Hadoop2.6集群环境搭建(HDFS HA+YARN)原来4G内存也能任性一次. 准备工作: 1.笔记本4G内存 ,操作系统WIN7 (屌丝的配置) 2.工具VMware Workstation 3.虚拟机:CentOS6.4共四台 虚拟机设置: 每台机器:内存512M,硬盘40G,网络适配器:NAT模式 选择高级,新生成虚机Mac地址(克隆虚拟机,Mac地址不会改变,每次最后手动重新生成) 编辑虚拟机网络: 点击NAT设置,查看虚机网关IP,并记住它,该IP在虚机的网络设置中非常重要. N

Hadoop2.6集群环境搭建(HDFS HA+YARN)

Hadoop2.6集群环境搭建(HDFS HA+YARN)原来4G内存也能任性一次. 准备工作: 1.笔记本4G内存 ,操作系统WIN7 (屌丝的配置) 2.工具VMware Workstation 3.虚拟机:CentOS6.4共四台 虚拟机设置: 每台机器:内存512M,硬盘40G,网络适配器:NAT模式 选择高级,新生成虚机Mac地址(克隆虚拟机,Mac地址不会改变,每次最后手动重新生成) 编辑虚拟机网络: 点击NAT设置,查看虚机网关IP,并记住它,该IP在虚机的网络设置中非常重要. N

max环境下cocos2d-x 3.0的环境搭建

一开始始终找不到网上说得create_project.py,所以网上通过这个的方法行不通. 所以就找了点关于3.0的资料,貌似在3.0正式版里是通过**/cocos2d-x-3.0/tools/cocos2d-console/bin/cocos.py来创建工程的. 不过3.0正式版要先搞定环境变量.. 1. 打开 ~/.bash_profile ,添加以下信息(具体为什么叫这些没搞明白,回头可以试试不叫这些名字) export COCOS2DX_ROOT=/Users/*/Sites/cocos

vue2.0新手环境搭建

#vue2.0新手环境搭建 1. 安装node.js(稳定版本,>4.0.0即可)2. 获取nodejs模块安装目录访问权限(windows跳过此步)sudo chmod -R 777 /usr/local/lib/node_moudules ``` sudo chmod -R 777 /usr/local/lib/node_moudules ```3. 安装淘宝镜像 ``` npm install -g cnpm ```4. 安装webpack ``` cnpm install webpack

Hadoop2.2.0分布式环境配置笔记2-编译64位hadoop源码

11.配置hadoop分布式环境!  三台机器都需要这么配置 1).将/opt/modules/hadoop-2.2.0-src重命名  mv /opt/modules/hadoop-2.2.0-src/ /opt/modules/hadoop-2.2.0-src_x32_back 2).解压64位源码 tar -zxvf /opt/modules/hadoop-2.2.0-src_x32_back/hadoop-dist/target/hadoop-2.2.0.tar.gz -C /opt/m

PyQt5-5.4-gpl-Py3.4-Qt5.4.0+eric6-x64环境搭建和配置

PyQt5-5.4-gpl-Py3.4-Qt5.4.0+eric6-x64环境搭建和配置 2015.9.26.2:05.没办法,,,哈哈哈的,兵们整天能玩上玩新鲜的.顺应人的潮流,继续新鲜一把. 从都不知道几辈子之前的,linux +oracle 搭建过一次环境,原来就喜欢搭建环境.到今天啦都,有环境需要配置的,都很好玩,搭建不出来还都不困.够冷汗的也给. 都讲,聪明的是站到巨人的肩上,我也干脆在巨人头上卧卧.http://jingyan.baidu.com/article/1876c85291