spark安装部署手册

  • 官网下载spark安装包
  • 上传到服务器使用命令tar -zxvf 解压缩
  • 解压后的spark通过start-master.sh启动,此时有可能启动报错,找不到java_home,这是需要修改spark-config.sh,需要在里面加上export JAVA_HOME=jdk路径
  • 主节点启动后,一般是占用8080端口,如果不是依次类推,8081.... ,从管理控制台获取URL地址。
  • 启动从节点,使用 start-slave.sh <master-spark-URL>(该URL)是从spark控制台获取的
  • 主、从节点启动完毕后可以通过控制台进行查看
  • 原文地址:http://blog.51cto.com/zhengqidaxia/2152716

    时间: 2024-11-05 13:36:19

    spark安装部署手册的相关文章

    Mysql上的RAC:Percona XtraDB Cluster负载均衡集群安装部署手册

     Percona XtraDB Cluster安装部署手册 引言 编写目的 编写此文档,供PerconaXtraDB Cluster部署时使用. 预期读者 系统维护人员及实施人员. 编制依据及参考资料 目标 通过阅读该手册,让读者明确PerconaXtraDB Cluster的安装.配置和维护情况,为后续数据库运维工作提供指导. 应用部署方案 环境准备 服务器列表 序号 IP 用途 HOSTNAME 操作系统 1 192.168.0.7 Percona XtraDB Cluster RedHat

    OpenKM安装部署手册

    安装下载JDK1.6.0 下载Eclipse  Juno软件(http://eclipse.org/downloads/packages/release/juno/sr2) Eclipse Juno (Eclipse IDE for Java EE Developers) at http://eclipse.org/juno/ 3.  通过Eclipse MarketPlace搜索下载 "Maven"--"Maven Integeration for Eclipse WTP(

    Spark安装部署(local和standalone模式)

    Spark运行的4中模式: Local Standalone Yarn Mesos 一.安装spark前期准备 1.安装java $ sudo tar -zxvf jdk-7u67-linux-x64.tar.gz -C /opt/service/ export JAVA_HOME=/opt/service/jdk1.7.0_67 export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH export CLASSPATH=.:$JAVA_HOME/l

    spark 安装部署

    一.安装spark依赖的内容 1.JDK spark是由Scala语言编写的,但是运行的环境是jvm,所以需要安装JDK 编译过程:Python.java.Scala编写的代码 -> scala编译器编译解释,生成class文件 -> 由jvm负责执行class文件(与java代码执行一致) 2.scala 由于 spark是由Scala语言编写的,所以依赖Scala环境,且由Scala编写的执行代码也需要环境进行编译 3.配置SSH免密码登录 集群节点无密码访问,与安装Hadoop时一致 4

    Mysql-cobar集群安装部署手册

    本文档以mysql5.6.17-1 rhel版本为例,介绍mysql一机多实例,以两台机器各两个实例,实现机器间的mysql实例主主复制功能.并将4个mysql实例纳入到cobar集群,实现mysql的分布式部署.部署结构图如下: 一.      Mysql RPM包多实例安装以及双主复制配置 1.     检测是否有历史版本存在,命令为:rpm –qa|grep –iE mysql: 2.     卸载历史版本,命令为:rpm -e –nodeps 包名.包名为步骤一中所查询的结果: 3.  

    spark安装部署

    spark是由Scala语言编写的,但是运行的环境是jvm,所以需要安装JDK 编译过程:Python.java.Scala编写的代码 -> scala编译器编译解释,生成class文件 -> 由jvm负责执行class文件(与java代码执行一致) 由于 spark是由Scala语言编写的,所以依赖Scala环境,且由Scala编写的执行代码也需要环境进行编译. hdfs是作为spark的持久层,所以需要安装Hadoop,同时如果需要配置spark on yarn,则Hadoop需要安装ya

    Spark安装部署| 运行模式

    Spark 一种基于内存的快速.通用.可扩展的大数据分析引擎: 内置模块: Spark Core(封装了rdd.任务调度.内存管理.错误恢复.与存储系统交互): Spark SQL(处理结构化数据).Spark Streaming(对实时数据进行流式计算) . Spark Mlib(机器学习程序库包括分类.回归.聚合.协同过滤等).Spark GraghX(图计算):独立调度器.Yarn.Mesos 特点: 快( 基于内存.多线程模型(而mapReduce是基于多进程的).可进行迭代计算(而ha

    Nginx安装部署手册

    (一)安装所需软件包 nginx-1.15.12.tar.gz 下载地址:http://nginx.org/download 安装环境:Linux (二)安装准备 Nginx是C语言开发的,所以需要在Linux上使用C语言编译后才能使用,所以需要先安装用于编译的C环境,这些依赖库主要有g++,gcc,openssl-devel,pcre-devel和zlib-devel.执行如下命令安装: $   yum install -y gcc-c++ $   yum install -y pcre pc

    MRTG 安装部署手册

    本来准备上微软的SCOM 演示下system center2016的,顺便下一个windows 2016 RS1 5G的文件,2个小时过去了,还有2小时看样子绝对要过夜啊.然后搜了下其他开源的,发现了这货. Overview 然后找了老牌监控软件MRTG, 全程Multi Router Traffic Grapher,主要是通过监控网络设备上的SNMP或者其他SNMP的设备来进行绘图,但是路由只是一个开始,当然现在看起来也是一个结束 https://oss.oetiker.ch/mrtg/pub