Win7下面安装hadoop2.x插件及Win7/Linux运行MapReduce程序

一、win7下

(一)、安装环境及安装包

win7 32 bit

jdk7

eclipse-java-juno-SR2-win32.zip

hadoop-2.2.0.tar.gz

hadoop-eclipse-plugin-2.2.0.jar

hadoop-common-2.2.0-bin.rar

(二)、安装

默认已经安装好了jdk、eclipse以及配置好了hadoop伪分布模式

1、拷贝hadoop-eclipse-plugin-2.2.0.jar插件到Eclipse安装目录的子目录plugins下,重启Eclipse。

2、设置环境变量

3、配置eclipse中hadoop的安装目录

解压hadoop-2.2.0.tar.gz

4、解压hadoop-common-2.2.0-bin.rar

复制里面的文件到hadoop安装目录的bin文件夹下

(三)、在win7下,MapReuce On Yarn执行

新建一个工程

点击window–>show view–>Map/Reduce Locations

点击New Hadoop Location……

添加如下配置,点击完成。

自此,你就可以查看HDFS中的相关内容了。

编写mapreduce程序

在src目录下添加文件log4j.properties,内容如下:

log4j.rootLogger=debug,appender1

log4j.appender.appender1=org.apache.log4j.ConsoleAppender

log4j.appender.appender1.layout=org.apache.log4j.TTCCLayout

运行,结果如下:

二、在Linux下

(一)在Linux下,MapReuce On Yarn上

运行

[[email protected] Documents]# yarn jar  test.jar hdfs://liguodong:8020/hello  hdfs://liguodong:8020/output
15/05/03 03:16:12 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
………………
15/05/03 03:16:13 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1430648117067_0001
15/05/03 03:16:13 INFO impl.YarnClientImpl: Submitted application application_1430648117067_0001 to ResourceManager at /0.0.0.0:8032
15/05/03 03:16:13 INFO mapreduce.Job: The url to track the job: http://liguodong:8088/proxy/application_1430648117067_0001/
15/05/03 03:16:13 INFO mapreduce.Job: Running job: job_1430648117067_0001
15/05/03 03:16:21 INFO mapreduce.Job: Job job_1430648117067_0001 running in uber mode : false
15/05/03 03:16:21 INFO mapreduce.Job:  map 0% reduce 0%
15/05/03 03:16:40 INFO mapreduce.Job:  map 100% reduce 0%
15/05/03 03:16:45 INFO mapreduce.Job:  map 100% reduce 100%
15/05/03 03:16:45 INFO mapreduce.Job: Job job_1430648117067_0001 completed successfully
15/05/03 03:16:45 INFO mapreduce.Job: Counters: 43
        File System Counters
                FILE: Number of bytes read=98
                FILE: Number of bytes written=157289
                FILE: Number of read operations=0
                FILE: Number of large read operations=0
                FILE: Number of write operations=0
                HDFS: Number of bytes read=124
                HDFS: Number of bytes written=28
                HDFS: Number of read operations=6
                HDFS: Number of large read operations=0
                HDFS: Number of write operations=2
        Job Counters
                Launched map tasks=1
                Launched reduce tasks=1
                Data-local map tasks=1
                Total time spent by all maps in occupied slots (ms)=16924
                Total time spent by all reduces in occupied slots (ms)=3683
        Map-Reduce Framework
                Map input records=3
                Map output records=6
                Map output bytes=80
                Map output materialized bytes=98
                Input split bytes=92
                Combine input records=0
                Combine output records=0
                Reduce input groups=4
                Reduce shuffle bytes=98
                Reduce input records=6
                Reduce output records=4
                Spilled Records=12
                Shuffled Maps =1
                Failed Shuffles=0
                Merged Map outputs=1
                GC time elapsed (ms)=112
                CPU time spent (ms)=12010
                Physical memory (bytes) snapshot=211070976
                Virtual memory (bytes) snapshot=777789440
                Total committed heap usage (bytes)=130879488
        Shuffle Errors
                BAD_ID=0
                CONNECTION=0
                IO_ERROR=0
                WRONG_LENGTH=0
                WRONG_MAP=0
                WRONG_REDUCE=0
        File Input Format Counters
                Bytes Read=32
        File Output Format Counters
                Bytes Written=28

查看结果

[[email protected] Documents]# hdfs dfs -ls  /
Found 3 items
-rw-r--r--   2 root supergroup         32 2015-05-03 03:15 /hello
drwxr-xr-x   - root supergroup          0 2015-05-03 03:16 /output
drwx------   - root supergroup          0 2015-05-03 03:16 /tmp
[[email protected] Documents]# hdfs dfs -ls  /output
Found 2 items
-rw-r--r--   2 root supergroup          0 2015-05-03 03:16 /output/_SUCCESS
-rw-r--r--   2 root supergroup         28 2015-05-03 03:16 /output/part-r-00000
[[email protected] Documents]# hdfs dfs -text  /output/pa*
hadoop  1
hello   3
me      1
you     1

遇到的问题

File /output/………  could only be replicated to 0 nodes instead of minReplication (=1).
There are 1 datanode(s) running and no node(s) are excluded in this operation.

在网上找了很多方法是试了没有解决,然后自己根据这句话的中文意思是只有被复制到0个副本,而不是最少的一个副本。

我将最先dfs.replication.min设置为0,但是很遗憾,后面运行之后发现必须大于0,我又改为了1。

然后再dfs.datanode.data.dir多设置了几个路径,就当是在一个系统中多次备份吧,后面发现成功了。

设置如下,在hdfs-site.xml中添加如下配置。

    <property>
        <name>dfs.datanode.data.dir</name>
        <value>     file://${hadoop.tmp.dir}/dfs/dn,file://${hadoop.tmp.dir}/dfs/dn1,file://${hadoop.tmp.dir}/dfs/dn2
        </value>
    </property>

(二)在Linux下,MapReuce On Local上

在mapred-site.xml中,添加如下配置文件。

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>local</value>
    </property>
</configuration>

可以不用启动ResourceManager和NodeManager。

运行

[root@liguodong Documents]# hadoop jar  test.jar hdfs://liguodong:8020/hello  hdfs://liguodong:8020/output

三、MapReduce运行模式有多种

mapred-site.xml中

1)本地运行模式(默认)

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>local</value>
    </property>
</configuration>

2)运行在YARN上

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

四、Uber Mode

Uber Mode是针对于在Hadoop2.x中,对于MapReuduce Job小作业来说的一种优化方式(重用JVM的方式)。

小作业指的是MapReduce Job 运行处理的数据量,当数据量(大小)小于 HDFS 存储数据时block的大小(128M)。

默认是没有启动的。

mapred-site.xml中

<name>mapreduce.job.ubertask.enable</name>
<value>true</value>
时间: 2024-10-17 04:28:57

Win7下面安装hadoop2.x插件及Win7/Linux运行MapReduce程序的相关文章

win7下安装hadoop2.2.0.涵盖64位

想了解hadoop,所以就下了最新的文件,搭建相关的环境,以下为自己在win7上搭建hadoop的相关步骤. 1.下载hadoop,用winRAR解压.(路径不能有空格) 2.安装java,此处就不做讲解了.(java路径不能有空格) 3.配置hadoop的环境变量HADOOP_HOME="HADOOP的安装目录" 4.在环境变量的PATH中加入HADOOP的安装目录/bin 5.修改hadoop目录下etc/hadoop/hadoop-env.cmd文件中的JAVA_HOME变量为当

使用Eclipse编译运行MapReduce程序 Hadoop2.6.0_Ubuntu/CentOS

文章来源:http://www.powerxing.com/hadoop-build-project-using-eclipse/ 使用Eclipse编译运行MapReduce程序 Hadoop2.6.0_Ubuntu/CentOS 本教程介绍的是如何在 Ubuntu/CentOS 中使用 Eclipse 来开发 MapReduce 程序,在 Hadoop 2.6.0 下验证通过.虽然我们可以使用命令行编译打包运行自己的MapReduce程序,但毕竟编写代码不方便.使用 Eclipse,我们可以

window8.1编译hadoop2 eclipse插件,并远程调试hadoop程序

一.编译hadoop2 eclipse插件     1.安装ant 2.准备eclipse插件包,下载地址:http://pan.baidu.com/s/1i3myDvv 或者https://github.com/nemotan/hadoop2x-eclipse-plugin 3.解压插件包,进入主目录执行: ant jar -Dversion=2.6.0 -Declipse.home=F:\tool\eclipse-jee-juno-SR2\eclipse-jee-juno-SR2 -Dhad

C编译器MinGW安装、下载及在notepad++中运行C程序

一.C编译器MinGW的下载及安装步骤 打开MinGW官网:http://www.mingw.org/ 图一 图二 图三 图四 图五 图六 系统中配置环境变量: 图七 验证是否安装成功: CMD中运行C程序 二.notepad++中运行C程序 打开notepad++,点击运行,输入: cmd /k cd /d "$(CURRENT_DIRECTORY)" & g++ "$(FILE_NAME)" -o "$(NAME_PART)" &am

解决Win7下安装composer asset插件时ssl报错的问题

在win7下运行composer,安装asset插件时,出现SSL报错: D:\data\www\mmoyu\symapp>composer global require "fxp/composer-asset-plugin:1.0.0" Loading composer repositories with package information   [Composer\Downloader\TransportException]   The "https://pack

在Eclipse上安装Hadoop2.2插件并测试开发

一.前提工作 Hadoop搭建完成 二.开发环境 Win7 64位 Eclipse3.4.2 Hadoop2.2 三.开工 1,本地解压hadoop-2.2.0.tar.gz,配置HADOOP_HOME环境变量,并配置%HADOOP_HOME%\bin到Path中. 2,下载hadoop-common-2.2.0-bin-master.zip,路径: https://github.com/srccodes/hadoop-common-2.2.0-bin 将文件解压放到%HADOOP_HOME%\

windows下使用Eclipse编译运行MapReduce程序 Hadoop2.6.0/Ubuntu

一.环境介绍 宿主机:windows8 虚拟机:Ubuntu14.04 hadoop2.6伪分布:搭建教程http://blog.csdn.net/gamer_gyt/article/details/46793731 Eclipse:eclipse-jee-luna-SR2-win32-x86_64 二.准备阶段 网上下载hadoop-eclipse-plugin-2.6.0.jar (点击下载) 也可以自行编译(网上教程挺多的,可以自己百度 or Google) 三.begin 复制编译好的j

windows下使用Eclipse编译运行MapReduce程序 Hadoop2.6.0/Ubuntu(二)

在上篇文章中eclipse已经能访问HDFS目录,但并不能进行Mapreduce编程,在这里小编将常见错误和处理办法进行总结,希望对大家有所帮助 错误1:ERROR [main] util.Shell (Shell.java:getWinUtilsPath(303)) - Failed to locate the winutils binary in the hadoop binary path java.io.IOException: Could not locate executable n

win7硬盘安装_win7系统安装教程

懂得安装xp系统的用户,不一定懂得在硬盘安装win7系统,不同的系统 安装步骤也是不同的,相信很多用户在没有了解这个win7系统安装步骤前,肯定还是会有用户会用安装win xp系统的方法来安装win7系统,其实这是错的,现在就让小编与大家分享一下正确的从硬盘安装win7系统的步骤吧.最新win7硬盘安装_win7系统安装教程 方法/步骤 1.一般下载下来的都是ISO格式的镜像,所以将win7安装包解压出来后会有下图的文件. 2.将这些文件复制到一个非系统盘的根目录下,系统盘大多数都是C盘,根目录