Spark入门三部曲之第二步Spark开发环境搭建

使用Scala+IntelliJ IDEA+Sbt搭建开发环境

提示

搭建开发环境常遇到的问题:

1.网络问题,导致sbt插件下载失败,解决方法,找到一个好的网络环境,

或者预先从我提供的网盘中下载jar(链接:http://pan.baidu.com/s/1qWFSTze 密码:lszc)

将下载的.ivy2压缩文件,解压后,放到你的用户目录下。

2.版本匹配问题,版本不匹配会遇到各种问题,解决方法,按照如下版本搭建,

scala(2.10.3),sbt(0.13),sbt-assembly(0.11.2),spark(1.2.0)

3.如果按照本教程 搭建仍不成功,推荐看www.bigdatastudy.cn上我录制的课程Spark开发环境搭建(免费的)

安装Scala

scala下载地址:http://www.scala-lang.org/download/2.10.3.html

本教程中,相关软件下载网盘地址(链接:http://pan.baidu.com/s/1qWFSTze 密码:lszc)

默认安装选项会自动配置环境变量。

如果没有自动配置,进行环境变量配置

SCALA_HOME: C:\Program Files (x86)\scala\

Path后面加上 ;%SCALA_HOME%\bin

IntelliJ IDEA的下载,安装

下载地址:https://www.jetbrains.com/idea/

激活码如下:

key:tommy

value:49164-YPNVL-OXUZL-XIWM4-Z9OHC-LF053

key:itey

value:91758-T1CLA-C64F3-T7X5R-A7YDO-CRSN1

IntelliJ IDEA常用的设置

在IntellJ/bin/idea64.exe.vmoptions(64位,物理内存大,建议增大),加大IDEA的启动内存:

-Xms512m

-Xmx1024m

-XX:MaxPermSize=512m

主题和颜色:

Settings – IDE Settings – Appearance – Theme:Darcula

然后把下面override font选项勾上,选择Yahei 14号字体。

编辑器界面字体设置:

可以在Editor – Colors&Fonts – Fonts另存为一个新的主题,并在这个新主题中修改配置。

光标所在行背景颜色:

Editor – Colors&Fonts – General – Caret row,选择蓝色背景,以便具有较大色差。

为每个项目指定不同版本的JDK:

IDEA可以为每个项目指定不同版本的JDK,并且需要开发者手动配置项目的所使用的JDK版本。配置方法如下:

单击File | Project Structure菜单项,打开ProjectStructure对话框;

在左侧列表框中,选择SDKs列表项,进入SDK配置页面;

若中间的SDK列表框没有选项,则单击“+”号创建一个JDK列表项;

选择JDK列表项,在SDK ’JDK’选项卡页面中,单击JDK home path项目的浏览按钮,定位JDK安装路径并保存

插件安装

File>Settings>Plugins,搜索Scala直接安装,安装完后会提示重新启动。这个插件中有scala和sbt。

无需再单独下载sbt插件。

build.sbt文件

使用bt 0.13进行编译

build.sbt文件内容如下:

//导入支持编译成jar包的一些函数(这些函数是sbt-assembly插件中的)

import AssemblyKeys._

name := “SparkApp”

version := “1.0”

scalaVersion := “2.10.3”

libraryDependencies ++= Seq(// Spark dependency

“org.apache.spark” % “spark-core_2.10″ % “1.2.0” % “provided”,

“net.sf.jopt-simple” % “jopt-simple” % “4.3”,

“joda-time” % “joda-time” % “2.0”)

//该声明包括assembly plug-in功能

assemblySettings

// 使用 assembly plug-in配置jar

jarName in assembly := “my-project-assembly.jar”

// 从我们的assembly JAR中排除Scala, 因为Spark已经绑定了Scala

assemblyOption in assembly :=(assemblyOption in assembly).value.copy(includeScala = false)

进一步配置

要使sbt-assembly插件生效,在project/目录下新建一个文件,列出这个插件的依赖。

新建project/assembly.sbt 增加如下的配置:

addSbtPlugin(“com.eed3si9n” % “sbt-assembly” % “0.11.2”)

自此,环境搭建完毕。

spark的安装,请参考Spark入门三部曲之第一步Spark的安装

Spark程序的开发和运行,请参考Spark入门三部曲之第三步Spark程序的开发和运行

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-13 16:26:57

Spark入门三部曲之第二步Spark开发环境搭建的相关文章

利用KNIME建立Spark Machine learning 模型 1:开发环境搭建

1.Knime Analytics 安装 从官方网站下载合适的版本 https://www.knime.com/downloads 将下载的安装包在安装路径解压 https://www.knime.com/installation-0 下图是knime启动后的欢迎页面 要与spark集×××互,需要在Knime中安装KNIME? Extension for Apache Spark.并在Hadoop集群边界节点或能够执行spark-submit的节点安装Spark Job Server.架构图如

robotium从入门到放弃 一 测试开发环境搭建

1.JDK的安装及环境变量的配置    配置JAVA的运行环境,添加完环境变量后,可以打开Windows命令处理程序窗口,通过执行命令java -version验证环境变量是否添加成功.如果添加成功会显示出安装的Java版本 如下图所示   2.Android SDK安装及环境变量配置,及ide的选择     下载地址:链接: http://pan.baidu.com/s/1pLrd6Sb 密码: kfj5     下载集成环境adt-bundle-windows-x86_64,里面包含ecli

Spark+ECLIPSE+JAVA+MAVEN windows开发环境搭建及入门实例【附详细代码】

http://blog.csdn.net/xiefu5hh/article/details/51707529 Spark+ECLIPSE+JAVA+MAVEN windows开发环境搭建及入门实例[附详细代码] 标签: SparkECLIPSEJAVAMAVENwindows 2016-06-18 22:35 405人阅读 评论(0) 收藏 举报  分类: spark(5)  版权声明:本文为博主原创文章,未经博主允许不得转载. 目录(?)[+] 前言 本文旨在记录初学Spark时,根据官网快速

Windows下基于eclipse的Spark应用开发环境搭建

原创文章,转载请注明: 转载自www.cnblogs.com/tovin/p/3822985.html 一.软件下载 maven下载安装 :http://10.100.209.243/share/soft/apache-maven-3.2.1-bin.zip       jdk下载安装:          http://10.100.209.243/share/soft/jdk-7u60-windows-i586.exe(32位)         http://10.100.209.243/sh

Spark Idea Maven 开发环境搭建

一.安装jdk jdk版本最好是1.7以上,设置好环境变量,安装过程,略. 二.安装Maven 我选择的Maven版本是3.3.3,安装过程,略. 编辑Maven安装目录conf/settings.xml文件, <!-- 修改Maven 库存放目录--> <localRepository>D:\maven-repository\repository</localRepository> 三.安装Idea 安装过程,略. 四.创建Spark项目 1.新建一个Spark项目,

spark JAVA 开发环境搭建及远程调试

spark JAVA 开发环境搭建及远程调试 以后要在项目中使用Spark 用户昵称文本做一下聚类分析,找出一些违规的昵称信息.以前折腾过Hadoop,于是看了下Spark官网的文档以及 github 上 官方提供的examples,看完了之后决定动手跑一个文本聚类的demo,于是有了下文. 1. 环境介绍 本地开发环境是:IDEA2018.JDK8.windows 10.远程服务器 Ubuntu 16.04.3 LTS上安装了spark-2.3.1-bin-hadoop2.7 看spark官网

HBase、Hive、MapReduce、Hadoop、Spark 开发环境搭建后的一些步骤(export导出jar包方式 或 Ant 方式)

步骤一 若是,不会HBase开发环境搭建的博文们,见我下面的这篇博客. HBase 开发环境搭建(Eclipse\MyEclipse + Maven) 步骤一里的,需要补充的.如下: 在项目名,右键, 然后,编写pom.xml,这里不多赘述.见 HBase 开发环境搭建(Eclipse\MyEclipse + Maven) 完成之后呢,编写好代码,对吧. 步骤二  HBase 开发环境搭建后的一些步骤(export导出jar包方式  或 Ant 方式) 这里,不多说,玩过大数据一段时间的博友们,

Storm使用入门之本地开发环境搭建

本篇博文详细告诉你如何安装Storm的本地开发环境,总体分为两步,具体如下: 1.从官网上下载Storm的发布包,下载完成后将其解压,并将解压后的bin目录添加到环境变量(PATH)中,以方便后续执行Storm的相关命令 2.修改Storm的配置文件(storm.yaml),主要是按照实际情况更新配置文件中的集群信息,然后将修改后的配置文件添加到目录(~/.storm/)中,目的是为了后续能够远程启动和停止集群上的计算任务(即topology) 接下来,咱们来详细地介绍每一个操作步骤. 首先,何

《Node.js入门》Windows 7下Node.js Web开发环境搭建笔记

近期想尝试一下在IBM Bluemix上使用Node.js创建Web应用程序.所以须要在本地搭建Node.js Web的开发測试环境. 这里讲的是Windows下的搭建方法,使用CentOS 的小伙伴请參考:<Node.js入门>CentOS 6.5下Node.js Web开发环境搭建笔记 Node.js是什么? 我们看看百科里怎么说的? JavaScript是一种执行在浏览器的脚本,它简单,轻巧.易于编辑,这样的脚本通经常使用于浏览器的前端编程.可是一位开发人员Ryan有一天发现这样的前端式