在Eclipse中执行、配置Hadoop

版权全部: [email protected]  严禁转载!

1.安装插件


准备程序:

eclipse-3.3.2(这个版本号的插件仅仅能用这个版本号的eclipse)

hadoop-0.20.2-eclipse-plugin.jar
(在hadoop-0.20.2/contrib/eclipse-plugin文件夹下)

将hadoop-0.20.2-eclipse-plugin.jar 拷贝到eclipse/plugins文件夹下,重新启动eclipse。

2.打开MapReduce视图

Window -> Open Perspective -> Other 选择Map/Reduce,图标是个蓝色的象。

3.加入一个MapReduce环境

在eclipse下端,控制台旁边会多一个Tab,叫“Map/Reduce Locations”,在以下空白的地方点右键,选择“New Hadoop
location...”,如图所看到的:

在弹出的对话框中填写例如以下内容:

Location name(取个名字)
Map/Reduce
Master
(Job
Tracker的IP和port,依据mapred-site.xml中配置的mapred.job.tracker来填写)
DFS
Master
(Name
Node的IP和port,依据core-site.xml中配置的fs.default.name来填写)

4.使用eclipse对HDFS内容进行改动

经过上一步骤,左側“Project
Explorer”中应该会出现配置好的HDFS,点击右键,能够进行新建目录、删除目录、上传文件、下载文件、删除文件等操作。

注意:每一次操作完在eclipse中不能立即显示变化,必须得刷新一下。

5.创建MapReduceproject


5.1配置Hadoop路径

Window -> Preferences 选择 “Hadoop
Map/Reduce”,点击“Browse...”选择Hadoop目录的路径。

这个步骤与执行环境无关,仅仅是在新建project的时候能将hadoop根文件夹和lib文件夹下的全部jar包自己主动导入。

5.2创建project

File -> New -> Project 选择“Map/Reduce
Project”,然后输入项目名称,创建项目。插件会自己主动把hadoop根文件夹和lib文件夹下的全部jar包导入。

5.3创建Mapper或者Reducer

File -> New -> Mapper
创建Mapper,自己主动继承mapred包里面的MapReduceBase并实现Mapper接口。

注意:这个插件自己主动继承的是mapred包里旧版的类和接口,新版的Mapper得自己写。

Reducer同理。

6.在eclipse中执行WordCount程序


6.1导入WordCount

WordCount

6.2配置执行參数

Run As -> Open Run Dialog...
选择WordCount程序,在Arguments中配置执行參数:/mapreduce/wordcount/input
/mapreduce/wordcount/output/1

分别表示HDFS下的输入文件夹和输出文件夹,当中输入文件夹中有几个文本文件,输出文件夹必须不存在。

6.3执行

Run As -> Run on Hadoop 选择之前配置好的MapReduce执行环境,点击“Finish”执行。

控制台会输出相关的执行信息。

6.4查看执行结果


在输出文件夹/mapreduce/wordcount/output/1中,能够看见WordCount程序的输出文件。除此之外,还能够看见一个logs文件夹,里面会有执行的日志

在Eclipse中执行、配置Hadoop,布布扣,bubuko.com

时间: 2024-10-16 15:59:06

在Eclipse中执行、配置Hadoop的相关文章

github在eclipse中的配置

http://www.cnblogs.com/yejiurui/archive/2013/07/29/3223153.html http://blog.csdn.net/shehun1/article/details/9003039 要保存到private Git简介 Git是一个免费的.分布式的版本控制工具,或是一个强调了速度快的源代码管理工具.每一个Git的工作目录都是一个完全独立的代码库,并拥有完整的历史记录和版本追踪能力,不依赖于网络和中心服务器. Git 在管理项目时,在本地会有三个工

MapReduce分布式缓存程序,无法在Windows下的Eclipse中执行问题解决

在写mapreduce程序中经常要用到hadoop自动的分布式缓存DistributedCache(新版本已经换新的API),但是在windows下Eclipse中执行,会出现类似如下错误: 2016-03-03 10:53:21,424 WARN [main] util.NativeCodeLoader (NativeCodeLoader.java:<clinit>(62)) - Unable to load native-hadoop library for your platform..

Eclipse中执行Hbase所需jar包

Eclipse中执行Hbase程序需要导入的jar包如下: 1 Hadoop全部jar包 2 Hbase部分jar包 Hbasejar包不能多也不能少,多了会冲突,少了会提醒找不到相应类,Hbase这些jar包整理了一下如下图所示:

Win系统下用Eclipse中运行远程hadoop MapReduce程序常见错误及解决方法

一.Permission denied 1.Win系统下用Eclipse中运行远程hadoop MapReduce程序出现报错 org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security.AccessControlException: Permission denied: user=xxx, access=WRITE, inode="xxx":xxx:supergroup:rwxr-xr-x

Maven环境变量配置和在Eclipse中的配置

1.Maven环境变量配置 M2_HOME :变量值为maven的安装目录 在path后添加%M2_HOME%\bin; 检查JDK,maven配置的cmd命令 echo %JAVA_HOME% java_version echo %M2_HOME% mvn -v mvn help:system 该命令会打印出所有的Java系统属性和环境变量 2.Maven在Eclipse中的配置 1).配置外部引入的Maven Windows -> Preferences -> Maven ->Ins

Hadoop在eclipse中的配置

在安装完linux下的hadoop框架,实现完所现有的wordCount程序,能够完美输出结果之后,我们开始来搭建在window下的eclipse的环境,进行相关程序的编写. 在网上有很多未编译版本,需要手动进行相关编辑,所以特地找了一个已经编译完好的插件 eclipse版本:SR2-kepler java版本:1.8.101 Hadoop 版本:hadoop2.5.2.tar.gz 需要hadoop的插件:eclipse-hadoop-2.5.2-plugin        http://pa

eclipse下安装配置hadoop(含WordCount程序测试)

这里我为大家介绍如何在windows下安装配置hadoop.,以及测试一个程序 所需要使用的插件和分别有: 一.准备工作 1.eclipse,最好是JAVAEE版本的,以为可以改变模式. 2.hadoop和eclipse的连接器: hadoop-eclipse-plugin-1.2.1.jar(这个是我所使用的,在这里可以自定义选取版本) 3.是hadoop源码包(下载最新的就可以). 将hadoop-0.20.2-eclipse-plugin.jar 复制到eclipse/plugins目录下

【转】git在eclipse中的配置

原文网址:http://www.cnblogs.com/zhxiaomiao/archive/2013/05/16/3081148.html 一_安装EGIT插件 http://download.eclipse.org/egit/updates/ 或者使用Eclipse Marketplace,搜索EGit 二_使用EGIT前的配置 配置个人信息,最重要的是user.name和user.email l  Preferences > Team > Git > Configuration l

[转]git在eclipse中的配置

一_安装EGIT插件 http://download.eclipse.org/egit/updates/ 或者使用Eclipse Marketplace,搜索EGit 二_使用EGIT前的配置 配置个人信息,最重要的是user.name和user.email l  Preferences > Team > Git > Configuration l  New Entry 三_新建GIT仓库 新建NC module project l  File > Team > Share