Interlij 13编译Spark程序生成jar包

1、创建项目sp

create new project->scala->NOT SBT->next->设置项目名称‘sp‘

2、导入相关jar包

File->Project Structure->Libraries->点绿色‘+‘->java->找到spark-assembly-1.0.0-hadoop2.2.0.jar->OK

按照类似的方法导入scala-compiler.jar,  scala-library.jar, scala-reflect.jar  //这些位于scala的安装目录下的lib目录

3、创建scala源文件HdfsWC.scala

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
class HdfsWC {
  def main(args: Array[String]) {
    val sc = new SparkContext(args(0)/*"yarn-standalone"*/,"myWordCount",System.getenv("SPARK_HOME"),null)
    //List("lib/spark-assembly_2.10-0.9.0-incubating-hadoop1.0.4.jar")
    val logFile = sc.textFile(args(1))//"hdfs://master:9101/user/root/spam.data") // Should be some file on your system
    //  val file = sc.textFile("D:\\test.txt")
    val counts = logFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)
    //   println(counts)
    counts.saveAsTextFile(args(2)/*"hdfs://master:9101/user/root/out"*/)
  }
}

4、配置artifacts

File->Project Structure->Artifacts->点绿色‘+‘->jar->From modules ...->在Main Classes中点按钮“....”选中HdfsWC->OK

如下图所示将Extracted xxxx选中,点红色‘-‘,将这些移除->OK

5、编译项目

Build->Make Project

6、打包:

Build->Build Artifacts->Build

7、在上图的Output directory中找到sp.jar

Interlij 13编译Spark程序生成jar包,布布扣,bubuko.com

时间: 2024-10-05 03:45:07

Interlij 13编译Spark程序生成jar包的相关文章

spark提交jar包时出现unsupported major.minor version 52.0错误的解决方案

一.问题: 最近在spark集群上做一个项目,打包提交jar包时,出现了unsupported major.minor version 52.0的报错,而在local模式运行却能正常运行! 二.错误原因: 查阅诸多资料得出的结论就是:项目编译得到的class文件的版本高于运行环境中jre的版本号,高版本JDK编译的class不能在低版本的jvm虚拟机下运行,否则就会报这类错,因此无法运行!49,50,51,52是Java编译器内部的版本号,版本对应信息如下: Unsupported major.

多个java文件编译并打成jar包经典方法

首先,多个java文件的编译 find . -type f -name *.java > compilelist (.代表当前路径) javac -cp "$CLASSPATH" -encoding MS932 @compilelist(编码方式可以任意指定) 然后,整个编译的.class文件 find . -type f -name *.class > classfilelist classfiles=`cat classfilelist` 最后,打包编译后的.class

java命令行从编译到打jar包到执行

整个过程模拟Eclipse的Java Project项目,包括src,以及生成的.class文件在bin中,还可能有lib,包含额外的jar包. 一. javac编译 1. 没有额外的jar包 1)准备工作 我们新建JavaProject,该项目结构如下: bin:必须新建一个空的bin文件,用于存放生成.class文件 src:源码文件,包含我们写的.java文件 src/com/zc/javaproject/test/HelloJava.java src/com/zc/javaproject

Jenkins实战 在redhat上编译android项目jar包

好久没记录自己学到的东西了.现在加入了新公司,先做个持续集成练练手,期间遇到很多问题,在此记录一下. 首先是Jenkins刷新几次就直接挂了,其实没有多少job在跑.这个问题没这么看,最后mentor发现是memory的问题,默认值太低了,必须设置一下.参见link. 然后项目源码是放在自建gitlab上的,装了个gitlab hook插件,里面会帮你装git相关的插件,而hook可以接收gitlab那边的code有变动的时候发送的消息,然后自动build. 构建前准备: mentor说当构建任

hadoop 编译自己的jar包并运行

我修从网上找了份java代码 我为了让它在hadoop下跑起来居然花了两个多小时... 首先最好不要在java代码中设置package...使用default package即可... 然后在java代码所在的文件夹下运行 javac -classpath /home/hadoop/hadoop-2.5.1/hadoop-0.20.1/hadoop-0.20.1-core.jar:/home/hadoop/hadoop-2.5.1/hadoop-0.20.1/lib/commons-cli-1.

Android源码编译jar包BUILD_JAVA_LIBRARY 与BUILD_STATIC_JAVA_LIBRARY的区别

一般情况下,在Android源码下编译一个jar包的典型makefile(Android.mk)如下: 在文件中加入以下内容: LOCAL_PATH:= $(call my-dir)#make jarinclude $(CLEAR_VARS)LOCAL_SRC_FILES := $(call all-subdir-java-files)LOCAL_MODULE := mytestjarinclude $(BUILD_JAVA_LIBRARY) #include $(BUILD_STATIC_JA

Android源码编译jar包BUILD_JAVA_LIBRARY 与BUILD_STATIC_JAVA_LIBRARY的区别(二)

上文简单介绍了BUILD_JAVA_LIBRARY 与BUILD_STATIC_JAVA_LIBRARY编译出来jar包的区别, 那么你如果拿到了一个内容是dex格式的jar包,而你又偏偏需要这个jar包导入Eclipse来做开发, 手头偏偏又没有这个jar包的源码,或者有源码,但是没有Android源码编译(mm)的环境,怎么办? 这个时候谷歌安卓反编译工具(dex2jar, 本人实在太懒,就不提供下载链接了)就有用处了, 将jar包里面的dex文件(classes.dex)用此神器转换成一个

解决Debug JDK source 无法查看局部变量的问题方案(重新编译rt.jar包)

一.问题阐述 首先我们要明白JDK source为什么在debug的时候无法观察局部变量,因为在jdk中,sun对rt.jar中的类编译时,去除了调试信息,这样在eclipse中就不能看到局部变量的值.这样的话,如果在debug的时候查看局部变量,就必须自己编译相应的源码使之拥有调试信息.要达到这个目的,一是找网上人家已经编译好的版本,剩下的只能自己去编译.下面我们对于自己编译提供一个方法,希望对大家有所帮助,如果有什么问题,请留言. 二.解决方案1.选择或创建你的工作目录,比如我选择:E:\2

编译spark源码

本例记录spark源码编译的过程及问题 因为编译会有很多很多莫名其妙的错误,为了方便,使用hadoop的cdh版本,注意版本要和我的一致, 环境: maven3.0.5 scala2.10.4                                下载地址:http://www.scala-lang.org/download/all.html spark-1.3.0-src                        下载地址:http://spark.apache.org/downl