Centos下装eclipse测试Hadoop

(一),安装eclipse

   1,下载eclipse,点这里

   2,将文件上传到Centos7,可以用WinSCP

   3,解压并安装eclipse    

    [[email protected] opt]# tar zxvf ‘/home/s/eclipse-jee-neon-1a-linux-gtk-x86_64.tar.gz‘ -C/opt  ---------------> 建立文件:[[email protected] opt]# mkdir /usr/bin/eclipse     ------------------》添加链接,即快捷方式:[[email protected] opt]# ln -s /opt/eclipse/eclipse /usr/bin/eclipse -----------》点击eclipse,即可启动了



(二),建立Hadoop项目

    1,下载hadoop plugin 2.7.3   链接:http://pan.baidu.com/s/1i5yRyuh 密码:ms91

    2,解压上述jar包插件,放到eclipse中plugins中,并重启eclipse

    2, 在eclipse中加载dfs库,点击Windows 工具栏-------->选择show view如图:

            

    2,打开resource  点击Window ----->Perspective----------->open Perspective  选择resource:

    3,配置连接端口,点击eclipse下放的MapResource Location,点击添加:其中port号按照hdfs-site.xml 和core-site.xml来填写。

    4,上传输入文件:使用hdfs dfs -put /home/file1  /data 即可在eclipse中看到如下:(要确保各个机器的防火墙都关闭,出现异常可以暂时不用关,后面跑下例子就全没了,呵呵)



  (三),测试WordCount程序

   1,新建项目:点击new ------------》project ----------->Map Reduce,如图:

   2,给项目配置本地的hadoop文件,圆圈处写本地hadoop的路径:

    

   3,新建个mappert类,写如下代码:

    

 1 package word;
 2
 3 import java.io.IOException;
 4 import java.util.StringTokenizer;
 5
 6 import org.apache.hadoop.conf.Configuration;
 7 import org.apache.hadoop.fs.Path;
 8 import org.apache.hadoop.io.IntWritable;
 9 import org.apache.hadoop.io.Text;
10 import org.apache.hadoop.mapreduce.Job;
11 import org.apache.hadoop.mapreduce.Mapper;
12 import org.apache.hadoop.mapreduce.Reducer;
13 import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
14 import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
15 import org.apache.hadoop.util.GenericOptionsParser;
16
17 public class mapper {
18
19 public static class TokenizerMapper
20 extends Mapper<Object, Text, Text, IntWritable>{
21
22 private final static IntWritable one = new IntWritable(1);
23 private Text word = new Text();
24
25 public void map(Object key, Text value, Context context
26 ) throws IOException, InterruptedException {
27 StringTokenizer itr = new StringTokenizer(value.toString());
28 while (itr.hasMoreTokens()) {
29 word.set(itr.nextToken());
30 context.write(word, one);
31 }
32 }
33 }
34
35 public static class IntSumReducer
36 extends Reducer<Text,IntWritable,Text,IntWritable> {
37 private IntWritable result = new IntWritable();
38
39 public void reduce(Text key, Iterable<IntWritable> values,
40 Context context
41 ) throws IOException, InterruptedException {
42 int sum = 0;
43 for (IntWritable val : values) {
44 sum += val.get();
45 }
46 result.set(sum);
47 context.write(key, result);
48 }
49 }
50
51 public static void main(String[] args) throws Exception {
52 Configuration conf = new Configuration();
53
54 String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
55 if (otherArgs.length != 2) {
56 System.err.println(otherArgs.length);
57 System.err.println("Usage: wordcount <in> <out>");
58 System.exit(2);
59 }
60 Job job = new Job(conf, "word count");
61 job.setJarByClass(mapper.class);
62 job.setMapperClass(TokenizerMapper.class);
63 job.setCombinerClass(IntSumReducer.class);
64 job.setReducerClass(IntSumReducer.class);
65 job.setOutputKeyClass(Text.class);
66 job.setOutputValueClass(IntWritable.class);
67 FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
68 FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
69 System.out.print("ok");
70 System.exit(job.waitForCompletion(true) ? 0 : 1);
71 }
72 }

2,点击run as ------------>RunConfigurations ---------->设置input和output文件参数

  

3,点击run,查看结果

  

  文件的内容:

    



Centos下装eclipse测试Hadoop

时间: 2024-08-10 15:09:22

Centos下装eclipse测试Hadoop的相关文章

基于CentOS与VmwareStation10搭建hadoop环境

基于CentOS与VmwareStation10搭建hadoop环境     目  录 1.         概述.... 1 1.1.     软件准备.... 1 1.2.     硬件准备.... 1 2.         安装与配置虚拟机.... 2 2.1.     创建虚拟机.... 2 2.1.1.     创建虚拟机节点1.. 2 2.1.2.     创建虚拟机节点2.. 4 2.1.3.     创建虚拟机节点3.. 4 2.2.     安装操作系统CentOS6.0..

Eclipse导入Hadoop源码项目及编写Hadoop程序

一 Eclipse导入Hadoop源码项目 基本步骤: 1)在Eclipse新建一个java项目[hadoop-1.2.1] 2)将Hadoop压缩包解压目录src下的core,hdfs,mapred,tools,example四个目录copy到上述新建项目的src目录下 3)右击选择 Build Path,修改Java Build Path中[Source],删除src,添加src/core,src/hdfs,src/mapred,src/tools几个源码目录: 4)在项目中新建一个lib目

Hadoop学习笔记0004——eclipse安装hadoop插件

Hadoop学习笔记0004--eclipse安装hadoop插件 1.下载hadoop-1.2.1.tar.gz,解压到win7下hadoop-1.2.1: 2.如果hadoop-1.2.1中没有hadoop-eclipse-plugin-1.2.1.jar包,就到网上下载下来: 3.关闭eclipse,然后将hadoop-eclipse-plugin-1.2.1.jar拷贝到eclipse安装目录下的eclipse-x.x\plugins文件夹下,重启eclipse 4.在eclipse中顶

Centos JAVA Eclipse

wget http://download.oracle.com/otn-pub/java/jdk/8u5-b13/jdk-8u5-linux-i586.tar.gz vi /etc/profile 在文件后添加类似与一下的代码即可,注意:你的设置目录可能不同需修改. JAVA_HOME=/usr/java/jdk1.8.0JRE_HOME=/usr/java/jdk1.8.0/jrePATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/binCLASSPATH=.:$JAVA_

Win下Eclipse提交Hadoop程序出错:org.apache.hadoop.security.AccessControlException: Permission denied: user=D

描述:在Windows下使用Eclipse进行Hadoop的程序编写,然后Run on hadoop 后,出现如下错误: 11/10/28 16:05:53 INFO mapred.JobClient: Running job: job_201110281103_000311/10/28 16:05:54 INFO mapred.JobClient: map 0% reduce 0%11/10/28 16:06:05 INFO mapred.JobClient: Task Id : attemp

Hadoop1.x目录结构及Eclipse导入Hadoop源码项目

这是解压hadoop后,hadoop-1.2.1目录 各目录结构及说明: Eclipse导入Hadoop源码项目: 注意:如果没有ant的包可以去网上下,不是hadoop里面的. 然后如果通过以上还报错的话,可以右键点击项目,然后如下图(配置**/*):

eclipse 关联 hadoop 源代码------快速搞定

最近学习 hadoop, 建了个工程,由于是引入的 jar 包,不方便阅读, 百度了一下,发现还是各种麻烦, 在这里给大家介绍一种简单的办法,两步搞定 一. 下载 hadoop 完整包并解压 二.选择 hadoop jar 包 ---> 右键属性--> source---> 外部文件夹(选择解压的目录就可以了) 三. 看成果 是不是方便多了? 其他的都可以参考这种办法,简单快捷 eclipse 关联 hadoop 源代码------快速搞定,布布扣,bubuko.com

windows下eclipse调试hadoop详解

1)下载Eclipse http://www.eclipse.org/downloads/ Eclipse Standard 4.3.2 64位 2) 下载hadoop版本对应的eclipse插件 我的hadoop是1.0.4,因此下载hadoop-eclipse-plugin-1.0.4.jar 下载地址:http://download.csdn.net/detail/m_star_jy_sy/7376169 3)安装hadoop插件 将hadoop-eclipse-plugin-1.0.4.

window下eclipse配制hadoop插件 (四)

1.把插件hadoop-eclipse-plugin-2.6.2.jar拷贝到eclipse安装目录下的plugins中 2.重启一下Eclipse 配制hadoop 3.进入map/reduce视图模式 4.向hadoop分布式存储系统中存入数据 5.连接hadoop 6.创建hadoop工程 7.创建类MyWordCount.java package com.yc.hadoop; import java.io.IOException; import org.apache.hadoop.con