cloudera上面安装Spark2.0

Cloudera默认值是提供Spark1.6的安装,下面介绍如何来安装spark2.1

1. csd包:http://archive.cloudera.com/spark2/csd/

2. parcels:http://archive.cloudera.com/spark2/parcels/2.1.0.cloudera1/,根据操作系统选择对应的parcel文件,sha1文件,记得还要把列表最下面的manifest.json文件一并拷贝下来;注意需要sha1文件改名为sha;

3. 在cloudera parcels目录下(推荐目录/opt/cloudera)下面的csd文件中copy一下csd包

4. 在cloudera parcels目录下parcels-repo文件夹下拷贝parcels文件;

5. 进入cloudera管理页面,Hosts->Parcles,点击check for new parcles按钮,可以自动探测到spark2的parcles;

6. 点击spark一行右侧的Distribute按钮(发布-拷贝到集群个台机器);完事后再点击一次该按钮(激活-启动;此时按钮显示为Activate);

7. 此时addService还是不行,需要重启一下scm服务,重启服务的目的是能够重新读取一下csd文件夹下的内容,否则无法在add service的列表中看到spark2;然后在add Service的界面将会看到Spark2的安装选项;红字告知CDH默认并不带有此;但是我们已经通过自定义添加Spark2的Parcel了。

完事

时间: 2024-08-09 06:18:13

cloudera上面安装Spark2.0的相关文章

Spark2.0安装配置文档

Spark安装指南 该文档是建立在已经安装好hadoop和jdk的基础上,并且已经设置好HADOOP_HOME环境变量以及JAVA_HOME环境变量,测试和现网环境需要在原来的hadoop环境中安装. 1   下载安装包从scala官网下载scala-2.11.8.tgz.spark-2.0.0-bin-hadoop2.7.tgz两个安装包到集群各个节点机器上.(下面是两个官网地址) http://www.scala-lang.org/files/archive/scala-2.11.8.tgz

Ubuntu14.04或16.04下安装JDK1.8+Scala+Hadoop2.7.3+Spark2.0.2

为了将Hadoop和Spark的安装简单化,今日写下此帖. 首先,要看手头有多少机器,要安装伪分布式的Hadoop+Spark还是完全分布式的,这里分别记录. 1. 伪分布式安装 伪分布式的Hadoop是将NameNode,SecondaryNameNode,DataNode等都放在一台机器上执行,Spark同理,一般用于开发环境. 1.1 准备工作 系统准备:一台Ubuntu16.04机器,最好能够联网 准备好四个安装包:jdk-8u111-linux-x64.tar.gz,scala-2.1

spark2.0.1源码编译

一.编译源码步骤演示详解 . 编译spark环境要求 1.必须在linux系统下编译(以centos6.4为例) 2.编译使用的JDK版本必须是1.6以上(以JDK1.8为例) 3.编译需要使用Maven版本3.0以上(以Maven3.3.9为例) 4.编译需要使用Scala(以scala-2.11.8为例) . 编译spark所需要的包 1.spark-2.0.1.tgz:下载spark编译的源码包,提供apache下载页面http://archive.apache.org/dist/spar

Spark2.0.0源码编译

Hive默认使用MapReduce作为执行引擎,即Hive on mr,Hive还可以使用Tez和Spark作为其执行引擎,分别为Hive on Tez和Hive on Spark.由于MapReduce中间计算均需要写入磁盘,而Spark是放在内存中,所以总体来讲Spark比MapReduce快很多.默认情况下,Hive on Spark 在YARN模式下支持Spark. 因为本人在之前搭建的集群中,部署的环境为:hadoop2.7.3 hive2.3.4 scala2.12.8 kafka2

Ubuntu14.04下安装OpenCV3.0经验

Jeremy Lin 不得不说OpenCV的安装是个坑,我差不多花了2天时间才搞定.第1遍我是在VMware的虚拟机上面安装的,结果很无奈的失败了.后来我用EasyBCD装了Win8.1和Ubuntu14.04的双系统来安装OpenCV3.0,不过一开始也是相当不顺利. 现在谈一下正确的安装方法: 前提:系统更新 sudo apt-get update sudo apt-get upgrade 我主要就是栽在这个坑上面,我是一安装完 Ubuntu 14.04.2 就开始安装 OpenCV3.0

==原创==Ubuntu14.04安装OPENCV3.0流程及遇到的问题

Ubuntu14.04安装OPENCV3.0流程及遇到的问题 [email protected] http://www.cnblogs.com/mcjj 作者:马春杰杰 2017年6月14日22:38:23 我的电脑环境: Ubuntu14.04LTS + CUDA8.0 + CUDNN5.0 + Nvidia-367.44驱动 + OPENCV3.0-beta 我是按照这篇文章来的: Ubuntu14.04安装OpenCV3.0 - Linux系统教程 首先是刚开始的时候就遇到了错误,Unsu

Ubuntu 14.04(x64) 安装cuda8.0

由于之前已经在Ubuntu 14.04 x64上面安装cuda7.0+caffe, 并且已经配置好,caffe也已经跑通. 但是最近需要使用Torch,而Torch对cuda的要求是8.0,因此决定对cuda的版本进行升级,以满足Torch平台的需求. 而最新版的caffe也已经支持cuda8.0. 话不多说,开始安装cuda8.0. 显卡:GeForce GTX TITAN X 系统:Ubuntu 14.04(x_64) CUDA:cuda_8.0.61_375.26_linux.run cu

自动化安装Cacti 0.8.8h脚本

自动化安装Cacti 0.8.8h脚本 一.目的 1.1 监控目的 目前我们已经有zabbix监控系统,但是有客户需求需要流量报表,因此应此类客户的需求,部署Cacti流量监控系统,来监控客户服务器或交换机端口,为客户提供流量报表截图. 1.2 本文目的 快速部署Cacti流量监控系统,为后期相关工程师部署此系统提供借鉴与参考. 二.理论基础 2.1 相关理论 Cacti是用php语言实现的一套基于PHP,MySQL,SNMP及RRDTool开发的网络流量监测图形分析工具.snmp服务获取数据,

Ubuntu 11.04 安装 cuda5.0

由于实验需要,于2016年10月15日再Ubuntu11.04安装cuda5.0,但是从网上查找Ubuntu11.04 只有对应的支持的cuda4 版本,cuda 5.0前面版本不支持IDE nisght ,为调试带来许多麻烦,等装完以后,才明白,为什么英伟达不支持Ubuntu11.04的cuda 5.0,原因是gcc 编译器的版本不对应,Ubuntu11.04默认的编译器是gcc4.5,但是cuda5.0对应的编译器必须是gcc4.6,这个后面还需要调整,首先在Nvidia官方网站上下载cud