第9节课笔记-彻底实战IntelliJ IDEA 下的Spark程序开发

彻底实战IntelliJ IDEA 下的Spark程序开发
下载IntelliJ IDEA
下载git
Spark源码下载:git clone git://github.com/apache/spark.git
导入maven 工程

IntelliJ IDEA 启动的向导中Sacal下载需要下载,这是IDEA下载的,和系统层的不一样
4.指定JDK1.8.x和Scala2.10.4
5.file ->Project Stucture 来设置工程lib 核心是添加Spark的jar
6.添加Spark jar 依赖,spark1.6.0-bin-hadop2.6.tgz 里 spark-assemblyu-1.6.0-hadoop2.6.0.jar

7.创建scala工程,选择scala方式

复制昨天eclipse上的代码执行,正常
 
广告点击排名
排名处理:wordCountOrdered=pairs.reduceByKey(_+_).map(pair=>(pair._2,pair._1)).sortByKey(false).map(pair=>(pair._1,pair._2))     
//reduceByKey相同的键合计,key和value互换后排序,接着又换回来。
50分钟

时间: 2024-11-08 23:24:02

第9节课笔记-彻底实战IntelliJ IDEA 下的Spark程序开发的相关文章

1.1日第一节课笔记

授课总结阶段划分:第一阶段,所有讲解知识点都是集合具体实战第二阶段,千万实例项目讲解,价值百万,掌握相关技术后就能精通偶年薪百万精度Spark各种环境,内核原理,运行机制非常熟悉,碰上故障知道原因.解决,擅长性能优化策底掌握一个大型大数据项目,涉及课程后每次都完成作业,才能得到这个项目的全部源码.第三阶段,机器学习,前面2个阶段掌握牢固,第三阶段才能够掌握 1.1scala,运行在JVM,可以调用JAVA任何库,scala比JAVA,scala是一门纯面向对象语言.scala天生是函数式编程和面

1.2日第二节课笔记

class HiScala{private var name="Spark"def sayName(){println(name)}def getName=name}val scal=new HiScala 还有其他形式scal.sayName 同 scal.sayName() class HiScala{var name="Spark"def sayName(){println(name)}def getName=name}name没有private时,直接sca

#读书笔记#温伯格技术思想三部曲:程序开发心理学——第10章、积极性、培训及经验

在心理学家的眼中,人们在完成特定任务时的工作绩效,是由任务本身及其承担者对任务理解的深度共同决定的.心理学家同样认为,工作绩效同时也受到任务承担者个体在诸如性格和智力等方面差异的影响.尽管性格是可以改变的,而且智力也可以有所提高,但是工作绩效的实质提高还要依赖于培训和实践经验. 不过心理学本身并非一门严密的科学,而且也从来没有严密过.无论心理学家如何对任务及其承担者的理解深度进行考察,无论他们如何对任务承担者个体之间所有差异进行衡量,无论他们如何考虑到培训与实践经验,工作绩效总还是有很多方面无从

Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-01

创建一个Scala IDEA工程: 点击“Next”: 点击“Finish”完成工程的创建: 修改项目的属性: 首先修改Modules选项: 在src下创建两个文件夹,并把其属性改为source: 再修改Libraries: 因为要开发Spark程序,所以需要把Spark的开发需要的jar包导进来: 导入包完成后,在工程的scala下面创建一个package: 创建一个Object对象: 完成初始类的创建: 首先构建Spark Driver的模板代码: 该程序是对前面的搜狗日志的处理代码,只不过

Spark API编程动手实战-08-基于IDEA使用Spark API开发Spark程序-02

接下来进行打包,使用Project  Structure的Artifacts: 使用From modules with dependencies: 选择Main Class: 点击“OK”: 把名称改为SparkDemoJar: 因为每台机器上都安装了Scala和Spark,所以可以把Scala和Spark相关的jar文件都删除掉: 接下来进行Build: 选择“Build Artifacts”: 剩下的操作,就是jar包上传到服务器上,然后执行spark-submit命令,我在之前的文章已经详

第82课 Spark Streaming第一课 案例动手实战并在电光石火间理解其工作原理

本课内容提要: (1)什么是流处理以及Spark Streaming主要介绍 (2)Spark Streaming初体验 一.什么是流处理以及Spark Streaming主要介绍 流(Streaming),在大数据时代为数据流处理,就像水流一样,是数据流:既然是数据流处理,就会想到数据的流入.数据的加工.数据的流出. 日常工作.生活中数据来源很多不同的地方.例如:工业时代的汽车制造.监控设备.工业设备会产生很多源数据:信息时代的电商网站.日志服务器.社交网络.金融交易系统.黑客攻击.垃圾邮件.

C#第九节课

这节课主要是展示了各种大家的实验程序 说几个感受 创意都很棒啊! 我觉得大家都很厉害...比如wwx的游戏,用到了游戏引擎...据说ltp他们组的也是用到了游戏引擎 其次觉得我这个前端似乎并没有艺术细菌!界面并不是很美观.... 比较新颖的一些功能就是那些嵌入了游戏引擎的... 然后发现了自己组的一些不足...比如数据库比较弱...当然了我们的程序因为不涉及到数据库.不过数据库还是需要学一学的. 说一点自己组实验的技术 WPF平台的跳转我用了这样一段代码来实现 private void AllA

Linux及Arm-Linux程序开发笔记(零基础入门篇)

Linux及Arm-Linux程序开发笔记(零基础入门篇)  作者:一点一滴的Beer http://beer.cnblogs.com/ 本文地址:http://www.cnblogs.com/beer/archive/2011/05/05/2037449.html 目录 一.Arm-Linux程序开发平台简要介绍... 3 1.1程序开发所需系统及开发语言... 3 1.2系统平台搭建方式... 4 二.Linux开发平台搭建... 5 2.1安装虚拟工作站... 5 2.2安装Linux虚拟

centos mysql 实战 第六节课 字符集

centos mysql 实战 第六节课    字符集 一定要研究清楚mysql安装脚本 字符集 乱码数据迁移1. 理解字符集怎么会事2. 不同的字符集进行转换 什么是字符集gbk , utf8 gb2312 latin1 一套符号编码规则 字符串都必须有相应的字符集,除了二进制没有字符集 校验字符集的概念流式传输 多字节latin1 单字节gbk 2字节utf8 3字节校验字符集的概念, 字为单位归类的方法,就是3类xxx_bin 以二进制形式存储区分大小写 SHOW CHARACTER SE