Ubuntu下Spark开发环境搭建

  • Ubuntu 64基本环境配置
    • 安装JDK,下载jdk-8u45-linux-x64.tar.gz,解压到/opt/jdk1.8.0_45

    下载地址:http://www.oracle.com/technetwork/java/javase/downloads/index.html

    • 安装scala,下载scala-2.11.6.tgz,解压到/opt/scala-2.11.6

    下地地址: http://www.scala-lang.org/

    • 安装Spark,下载spark-1.3.1-bin-hadoop2.6.tgz,解压到/opt/spark-hadoop

    下载地址:http://spark.apache.org/downloads.html,

        配置环境变量,编辑/etc/profile,执行以下命令

python@ubuntu :~$  sudo gedit /etc/profile

在文件最增加:

#Seeting JDK JDK环境变量

export JAVA_HOME=/opt/jdk1.8.0_45

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH

#Seeting Scala Scala环境变量

export SCALA_HOME=/opt/scala-2.11.6

export PATH=${SCALA_HOME}/bin:$PATH

#setting Spark Spark环境变量

export SPARK_HOME=/opt/spark-hadoop/

#PythonPath 将Spark中的pySpark模块增加的Python环境中

export PYTHONPATH=/opt/spark-hadoop/python

    重启电脑,使/etc/profile永久生效,临时生效,打开命令窗口,执行 source /etc/profile  在当前窗口生效

  • 测试安装结果
    • 打开命令窗口,切换到Spark根目录

    • 执行 ./bin/spark-shell,打开Scala到Spark的连接窗口

启动过程中无错误信息,出现scala>,启动成功

    • 执行./bin/pyspark ,打开Python到Spark的连接窗口

启动过程中无错误,在出现如上所示时,启动成功。

    • 通过浏览器访问:出现如下页面

测试SPark可用。

  • Python安发Spark应用
    • 前面已设置PYTHONPATH,将pyspark加入到Python的搜寻路径中
    • 打开Spark安装目录,将Python-》build文件夹下py4j,复至到Python目录下,如图:

    • 打开命令行窗口,输入python,Python版本为2.7.6,如图所示,注意Spark不支持Python3

    • 输入import pyspark,如下图所示,证明开发前工作完成

    • 使用Pycharm新建项项目,使用红框中的代码测试:

时间: 2024-11-07 19:58:06

Ubuntu下Spark开发环境搭建的相关文章

ubuntu下php开发环境搭建,nginx+(cgi)php5fpm+memcached+xdebug

由于只是开发环境,所以都是选择比较简单的apt-get安装方式 ,但中间也遇到一点问题. 首先安装nginx nginx的安装和配置其实很简单,nginx本身非常轻量级, 直接 sudo apt-get install nginx 就可以了 他的配置文件是在/etc/nginx/里面,网站项目路径是在/var/www里面,安装之后一定要确保nginx的启动账户有对网站目录的访问权限,否则会报错. 第二步,安装cgi linux底下的cgi程序非常多,在这里我选择的是php5-fpm 方便  在这

【Spark机器学习速成宝典】基础篇01Windows下spark开发环境搭建+sbt+idea(Scala版)

注意: spark用2.1.1 scala用2.11.11 材料准备 spark安装包 JDK 8 IDEA开发工具 scala 2.11.8 (注:spark2.1.0环境于scala2.11环境开发,所以必须版本对应 scala不是必须安装的,如果你是打算使用scala进行spark开发,则需要安装 环境搭建步骤 将spark-2.1.1-bin-hadoop2.x版本至c盘下即可 将spark中的jar包全部提取出来另外放到一地方用于进行开发 新建IDEA项目,将所有jar包导入到IDEA

Ubuntu下Java开发环境搭建(eclipse)

最近把工作环境转移到了Ubuntu Kylin下,发现在这下面Java环境还是很方便的.然而也经历了一些摸索的过程,故作文以记之. 一/开发前准备 安装系统/配置软件源,这部分内容没什么需要注意的. 二/安装JDK 在ubuntu软件中心并没有找到SUN官方的JDK,只有OPENJDK.其实它们是兼容的,只是OPENJDK比前者的版本会有滞后.现在是2015年8月30日,OPENJDK目前只能支持到JDK7,而官方JDK已经到了8.如果你必须要安装官方JDK,可以在http://www.orac

Python 在Ubuntu下的开发环境搭建

sudo apt-get install pip 在~/.pip/pip.conf文件中添加或修改 [global] index-url = http://mirrors.aliyun.com/pypi/simple/ [install] trusted-host=mirrors.aliyun.com pip install pip --upgrade pip -v install virtualenv sudo pip -v install virtualenv

64位ubuntu下Android开发环境的配置

本文介绍如何在64位ubuntu上搭建android的开发环境. 系统:ubuntu12.04LTS 使用的是ADT Bundle for Linux和jdk1.7(open jdk也可) 一共分为3步走: 1.配置JDK 安装Open jdk $sudo apt-get install openjdk-7-jdk 或 从oracle官网下载 从官网下载JDK64位版 解压安装 将解压出的文件用最高权限复制到/usr/lib/jvm里 sudo cp -r ~/jdk1.7/ /usr/lib/

windows下spark开发环境配置

http://www.cnblogs.com/davidwang456/p/5032766.html windows下spark开发环境配置 --本篇随笔由同事葛同学提供. 特注:windows下开发spark不需要在本地安装hadoop,但是需要winutils.exe.hadoop.dll等文件,前提是你已经安装了eclipse.maven.jdk等软件 spark支持jdk版本建议是1.8及以上,如果开发spark建议将jdk编译版本设置为1.8 我选择的spark是spark-1.4.0

Spark入门三部曲之第二步Spark开发环境搭建

使用Scala+IntelliJ IDEA+Sbt搭建开发环境 提示 搭建开发环境常遇到的问题: 1.网络问题,导致sbt插件下载失败,解决方法,找到一个好的网络环境, 或者预先从我提供的网盘中下载jar(链接:http://pan.baidu.com/s/1qWFSTze 密码:lszc) 将下载的.ivy2压缩文件,解压后,放到你的用户目录下. 2.版本匹配问题,版本不匹配会遇到各种问题,解决方法,按照如下版本搭建, scala(2.10.3),sbt(0.13),sbt-assembly(

spark-windows(含eclipse配置)下本地开发环境搭建

spark-windows(含eclipse配置)下本地开发环境搭建   >>>>>>注意:这里忽略JDK的安装,JDK要求是1.8及以上版本,请通过 java  –version查看. 一.spark命令行环境搭建 Step1:安装Spark 到官网http://spark.apache.org/downloads.html选择相应版本,下载安装包.我这里下的是2.1.3版本,后面安装的Hadoop版本需要跟Spark版本对应.下载后找个合适的文件夹解压即可.这里新建

NDK在windows下的开发环境搭建及开发过程

在Android应用的开发project中.无论是游戏还是普通应用.都时常会用到.so即动态链接库,关于.so是什么玩意儿,有什么优点.这个大家能够在网上查一下,本人不做过多解释. .so本是linux下的文件类型,所以编译.so必需要在linux环境下,那么怎样在win下进行编译呢?随便在网上搜下,教程也是五花八门,不清不楚,没有一定功底,即便看着教程到最后预计还是功败垂成,更别说刚開始学习的人,看了保证头晕眼花,本人也是依据网上的一些样例.总结了一个个人觉得还算比較简单的一个.so的编译方法