Hadoop运行wordcount时报classnotfound错误的一个原因

我们在按照网上铺天盖地的教程开始运行wordcount时,有时会得到一个报错。如下所示

/usr/local/hadoop-1.2.1/bin# ./hadoop jar /home/ftp/temp/wordcount.jar WordCount /home/input /home/output
Exception in thread "main" java.lang.ClassNotFoundException: WordCount
        at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
        at java.lang.Class.forName0(Native Method)
        at java.lang.Class.forName(Class.java:348)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:153)

他会提示classnotfound。

这种情况下,我们看到他提示找不到wordcount这个类,原因是

你在把wordcount打包成jar文件的时候,设置了自己的package。所以jvm找不到它了。

输入命令时,把package路径输入即可“

usr/local/hadoop-1.2.1/bin# ./hadoop jar /home/ftp/temp/wordcount.jar com.myPackage.WordCount /home/input /home/output 
时间: 2024-12-25 18:31:12

Hadoop运行wordcount时报classnotfound错误的一个原因的相关文章

在ubuntu上安装eclipse同时连接hadoop运行wordcount程序

起先我是在win7 64位上远程连接hadoop运行wordcount程序的,但是这总是需要网络,考虑到这一情况,我决定将这个环境转移到unbuntu上 需要准备的东西 一个hadoop的jar包,一个连接eclipse的插件(在解压的jar包里有这个东西),一个hadoop-core-*.jar(考虑到连接的权限问题) 一个eclipse的.tar.gz包(其它类型的包也可以,eclipse本身就是不需要安装的,这里就不多说了) 因为我之前在win7上搭建过这个环境,所以一切很顺利,但还是要在

[Linux][Hadoop] 运行WordCount例子

紧接上篇,完成Hadoop的安装并跑起来之后,是该运行相关例子的时候了,而最简单最直接的例子就是HelloWorld式的WordCount例子.   参照博客进行运行:http://xiejianglei163.blog.163.com/blog/static/1247276201443152533684/   首先创建一个文件夹,并创建两个文件,目录随意,为以下文件结构: examples --file1.txt --file2.txt 文件内容随意填写,我是从新闻copy下来的一段英文: 执

Stack overflow错误的一个原因

前两天,将已经在TCPMP下完成的文件列表与LRC移植到一个新的EVC4 MFC工程中,调用初始化文件列表后,运行出现Stack overflow错误. 分析原因:局部变量申请太多,默认stack只有1M.当使用stack的使用超过1M,就会再现这样的错误. 解决方法:在EVC的菜单[Project->Setting]的Link页中的Category中选择Output,将Stack的Reserve里的值修改增加,以满足程序的要求.

Hadoop运行中遇到的错误调试

在运行Hadoop的过程中遇到的最多的问题就是DataNode不能正常的启动,各种问题都有可能,说一下我遇到的两种情况: (1)第一种情况是Master的防火墙没有关闭.这样在启动Hadoop的时候,Master这个节点可以正常的启动,但是Master的防火墙开启以后,使得Slave不能访问Master的9000端口.这种情况,在Slave的DataNode启动后又立即关闭了. (2)第二种情况的原因:每次NameNode -format会重新创建一个NameNode ID,而tmp/dfs/d

[hadoop] hadoop 运行 wordcount

讲准备好的文本文件放到hdfs中 执行 hadoop 安装包中的例子 [[email protected] mapreduce]# hadoop jar hadoop-mapreduce-examples-2.8.0.jar wordcount /input/ /output/wordcount 17/05/14 02:01:17 INFO client.RMProxy: Connecting to ResourceManager at hadoop01/172.16.253.128:8032

Could not open ServletContext resource 错误的一个原因

spring 在启动服务器的时候报错 Could not open ServletContext resource [/WEB-INF/***.xml] 找了两天,看了不少的贴子,终于找到原因了: 没有导入这个slf4j-api的jar包. 别的同学如遇到这个错误看看是不是和我一样是这个原因.

Keil下载时出现program fail错误的一个原因

在使用Keil给STM32单片机编程的时候有时会出现Programing Failed!对于这样的错误网上有很多的教程,错误的原因也有很多,比如是单片机上锁,环境配置错误的原因导致.这里我将提供一种错误的可能:电源问题 我的电源在家的时候摔了一下,当时把代码下载到单片机时,发现就有了上面的错误,Keil始终不能下载程序到单片机,使用FLYMCU下载后,有这样的现象:使用USB供电可以正常执行,使用插座的那个电源程序出现问题,不能正常运行,并且电源指示灯一闪一闪的.当时就发现电源似乎有问题,但是没

Table configuration with catalog null, schema null错误的一个原因

我在进行Mybatis调试时出现了下面的警告提示: Generation Warnings Occured Table configuration with catalog null, schema null, and table 表名 did not resolve to any tables Mybatis generator操作没有产生结果. 多处找资料发现在我的 generatorConfig.xml文件中: <jdbcConnection driverClass="com.mys

Hadoop3 在eclipse中访问hadoop并运行WordCount实例

前言:       毕业两年了,之前的工作一直没有接触过大数据的东西,对hadoop等比较陌生,所以最近开始学习了.对于我这样第一次学的人,过程还是充满了很多疑惑和不解的,不过我采取的策略是还是先让环境跑起来,然后在能用的基础上在多想想为什么.       通过这三个礼拜(基本上就是周六周日,其他时间都在加班啊T T)的探索,我目前主要完成的是: 1.在Linux环境中伪分布式部署hadoop(SSH免登陆),运行WordCount实例成功. http://www.cnblogs.com/Pur