为了让Scala运行起来还是很麻烦,为了大家方便,还是记录下来:
1、首先我下载的是IDEA的社区版本,版本号为15.
2、下载安装scala插件:
2.1 进入设置菜单。
2.2 点击安装JetBrains plugin
2.3 输入scala查询插件,点击安装
说明:我的IDEA已经安装,所以这里面没有显示出来安装按钮,否则右边有显示绿色按钮。
3、新建Scala工程
3.1 新建工程
通过菜单:File----》New Project 选择Scala工程。
并且设置项目基本信息,如下图:
3.2 设置Modules
1)点击右上角的方块:
2)在左边选择Libraries---》+---》Scala SDK--》选择版本为2.10.4
说明:如果不存在这个版本可以通过左下角的download去下载。
3)选择添加Java的Jar文件,选择Spark和Hadoop关联的Jar
我这里添加的是:spark-assembly-1.6.1-hadoop2.6.0.jar 这个是spark安装时候自带的lib里面有,很大。
定位到jar所在的目录后,刷新,选择这个文件,点击OK,会花费比较长时间建索引。
4)在Src源码目录新建文件:WordCount.scala
且输入如下代码:
import org.apache.spark.{SparkConf, SparkContext} import org.apache.spark.SparkContext._ object WordCount { def main(args: Array[String]) { if (args.length < 1) { System.err.println("Usage:<File>") System.exit(1) } val conf = new SparkConf().setAppName("WordCount") val sc = new SparkContext(conf) val line = sc.textFile(args(0)) val words = line.flatMap(_.split("")).map((_, 1)) val reducewords = words.reduceByKey(_ + _).collect().foreach(println) sc.stop() } }
时间: 2024-10-11 23:44:34