Spark0.9 安装

1、下载Scala

wget  http://www.scala-lang.org/files/archive/scala-2.10.3.tgz

tar xvzf scala-2.10.3.tgz -C /usr/local

2、下载Spark

wget http://www.apache.org/dist/incubator/spark/spark-0.9.0-incubating/spark-0.9.0-incubating-bin-hadoop2.tgz

tar -zxvf spark-0.9.0-incubating-bin-hadoop2.tgz

3、设置spark的配置文件

mv spark-env.sh.template spark-env.sh

cat >> spark-env.sh

export JAVA_HOME=/usr/java/jdk1.6.0_26

export SCALA_HOME=/usr/local/scala-2.10.3

export HADOOP_HOME=/root/hadoop-2.2.0

SPARK_LOCAL_DIR="/data/spark/tmp"

4、设置环境变量

cat >> /etc/profile

export SCALA_HOME=/usr/local/scala-2.10.3

export SPARK_HOME=/root/spark

export PATH=$SCALA_HOME/bin:$PATH

source /etc/profile

5、启动Hadoop相关进程

start-all.sh

6、启动Spark Worker

sbin/start-all.sh

此时通过jps可知启动了如下进程:

21624 Worker

10664 MainGenericRunner

20515 SecondaryNameNode

21057 Master

20311 NameNode

20689 ResourceManager

7、测试

[email protected]:~/spark/conf# ./run-example  org.apache.spark.examples.SparkPi local

输出:

...

[main] INFO org.apache.spark.SparkContext - Job finished: reduce at SparkPi.scala:39, took 5.0273654 s

Pi is roughly 3.13986

....

Spark0.9 安装

时间: 2024-10-12 16:46:18

Spark0.9 安装的相关文章

(转)Spark安装与学习

摘要:Spark是继Hadoop之后的新一代大数据分布式处理框架,由UC Berkeley的Matei Zaharia主导开发.我只能说是神一样的人物造就的神器,详情请猛击http://www.spark-project.org/ Created 2012-05-09 Modified 2012-08-13 1 Scala安装 当前,Spark最新版本是0.5,由于我写这篇文档时,版本还是0.4,因此本文下面的所有描述基于0.4版本. 不过淘宝的达人已经尝试了0.5,并写了相关安装文档在此htt

spark集群安装[转]

[转]http://sofar.blog.51cto.com/353572/1352713 ========================================================================================一.基础环境========================================================================================1.服务器分布10.217.145.244

Spark、Shark集群安装部署及遇到的问题解决

1.部署环境 OS:Red Hat Enterprise Linux Server release 6.4 (Santiago) Hadoop:Hadoop 2.4.1 Hive:0.11.0 JDK:1.7.0_60 Python:2.6.6(spark集群需要python2.6以上,否则无法在spark集群上运行py) Spark:0.9.1(最新版是1.0.2) Shark:0.9.1(目前最新的版本,但是只能够兼容到spark-0.9.1,见shark 0.9.1 release) Zo

Shark0.9.0安装

折腾了大半天. 1.环境需求:git,java1.7,Hadoop2.2.0,Spark0.9.0,hive-0.11-shark-0.9.0.tar.gz,Shark0.9.0 这里主要看后两个安装,前几个最好版本不能低于给定的. 2.安装过程: ①.安装hive: wget https://github.com/amplab/hive/archive/v0.11-shark-0.9.0.tar.gz mv v0.11-shark-0.9.0 hive-0.11-shark-0.9.0.tar

spark standalone mode 安装

1.安装JDK 2.安装scala 2.10 spark-1.0.2 依赖 scala 2.10, 我们必须要安装scala 2.10. 下载 scala-2.10.*.tgz 并 保存到home目录(已经在sg206上). $ tar -zxvf scala-2.10.*.tgz $ sudo mv scala-2.10.*.tgz /usr/lib $ sudo vim ~/.bash_profile # add the following lines at the end export S

安装Windows7系统时,提示:缺少所需的CD/DVD驱动器设备驱动程序

      测试机型:HP probook 430 g3       系统:Windows 7 Pro x64 现在笔记本电脑主板集成的USB口大多为3.0版本,而且一些厂商为了追求PC的轻薄,不再集成光驱,所以我们在安装系统时,一般只能通过U盘或U口外接光驱. 而当我们因为需要(安装OEM系统),在通过刻录软件(如UltraISO)将系统写入U盘或光盘的方式安装系统时,此时问题就可能悄悄出现了:因为Win7官方原版系统没有集成USB3.0驱动,所以可能的报错如下: 点击"浏览"或通过

Windows8.1-KB2999226-x64安装提示 此更新不适用你的计算机

如题 Windows8.1-KB2999226-x64.msu  双击安装 安装提示 此更新不适用你的计算机 . 解决方案: 放在D:\update\目录下 windows键+X  选择  命令提示符(管理员)  一定要是管理员 打开cmd 分别执行下面两句.红色部分就是自己的更新程序了.其他安装同理 例如Windows8.1-KB2919442-x64.msu 等 1    expand –F:* D:\update\Windows8.1-KB2999226-x64.msu D:\update

pip安装提示PermissionError: [WinError 5]错误问题解决

 问题现象 新安装python3.6版本后使用pip安装第三方模块失败,报错信息如下: C:\Users\linyfeng>pip install lxml Collecting lxml Downloading http://pypi.doubanio.com/packages/fb/41/b8d5c869d01fcb77c72d7d226a847a3946034ef19c244ac12920b71cd036/lxml-3.8.0-cp36-cp36m-win32.whl (2.9MB) 10

windows安装TortoiseGit详细使用教程【基础篇】

环境:win8.1 64bit 安装准备: 首先你得安装windows下的git msysgit1.9.5 安装版本控制器客户端tortoisegit  tortoisegit1.8.12.0 [32和64别下载错,不习惯英文的朋友,也可以下个语言包] 一.安装图解: 先安装GIT[一路默认即可] 安装好git以后,右键,会发现菜单多了几项关于GIT的选项 2.安装tortoisegit[一路默认即可] 安装好以后,右键,会发现菜单多了几项关于tortoisegit的选项 到此,安装算完成了,相