docker中spark+scala安装配置

一、scala安装
首先下载scala压缩包

wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz

解压

tar -zxvf scala-2.11.7.tgz

移动目录

mv scala-2.11.7 /usr/local/

改名

cd /usr/local/
mv scala-2.11.7 scala

配置环境变量

vim /etc/profile
export SCALA_HOME=/usr/local/scala
export PATH=$PATH:$SCALA_HOME/bin

环境变量生效

source /etc/profile

查看scala版本

scala -version

分发scala到其他主机

scp -r /usr/local/scala/ [email protected]:/usr/local/
scp -r /usr/local/scala/ [email protected]:/usr/local/

二、spark安装
复制spark压缩包 到容器中

docker cp /root/spark-2.1.2-bin-hadoop2.4.tgz b0c77:/

查看并解压


在profile中添加spark环境变量

生效环境变量

source /etc/profile

编辑spark-env.sh

vim /usr/local/spark/conf/spark-env.sh

  • JAVA_HOME:Java安装目录
  • SCALA_HOME:Scala安装目录
  • HADOOP_HOME:hadoop安装目录
  • HADOOP_CONF_DIR:hadoop集群的配置文件的目录
  • SPARK_MASTER_IP:spark集群的Master节点的ip地址
  • SPARK_WORKER_MEMORY:每个worker节点能够最大分配给exectors的内存大小
  • SPARK_WORKER_CORES:每个worker节点所占有的CPU核数目
  • SPARK_WORKER_INSTANCES:每台机器上开启的worker节点的数目
    修改slaves文件

cp slaves.template slaves

vi conf/slaves

scp -r /usr/local/spark/ Master:/usr/local

scp -r /usr/local/spark/ Slave2:/usr/local


同时其他两个节点也要修改 /etc/profile
启动spark

./sbin/start-all.sh


成功打开之后使用jps在Master、Slave1和Slave2节点上分别可以看到新开启的Master和Worker进程。



成功打开Spark集群之后可以进入Spark的WebUI界面,可以通过
SparkMaster_IP:8080
端口映射:

iptables -t nat -A DOCKER -p tcp --dport 8080 -j DNAT --to-destination 172.17.0.2:8080

此时我们可以通过映射到宿主机的端口访问,可见有两个正在运行的Worker节点。

打开Spark-shell
使用

spark-shell

推出spark-shell的命令是“:quit”
因为shell在运行,我们也可以通过
SparkMaster_IP:4040(172.17.0.2:4040)

访问WebUI查看当前执行的任务。
先进行端口映射:

iptables -t nat -A DOCKER -p tcp --dport 4040 -j DNAT --to-destination 172.17.0.2:4040


原文地址:http://blog.51cto.com/13670314/2341236

时间: 2024-11-06 21:56:17

docker中spark+scala安装配置的相关文章

Docker中Nginx服务器相关配置

工作中经常需要在服务器上来做一下实验,亲自动手看看效果是否与理论描述的相同.用docker可以很方便的配置所需要的环境,以下内容记录了如何用docker配置一个nginx服务器 下载nginx 从默认的中央仓库下载nginx docker pull nginx 启动nginx images并进入后台 docker run -it nginx /bin/bash 通过查看linux发行版知晓用哪个包管理工具 cat /proc/version Linux version 4.14.92-boot2

spark的安装配置

环境说明: 操作系统: centos7 64位 3台 centos7-1 192.168.111.10 master centos7-2 192.168.111.11 slave1 centos7-3 192.168.111.12 slave2 1.安装jdk,配置jdk环境变量 https://www.cnblogs.com/zhangjiahao/p/8551362.html 2.安装配置scala https://www.cnblogs.com/zhangjiahao/p/11689268

CentOS 6.9中Telnet的安装配置

Telnet:TCP/IP协议中的一员,是Internet远程登录服务的标准协议和主要方式.它为用户提供了在本地计算机上完成远程主机工作的能力.要开始一个Telnet会话,必须输入用户名和密码来登录服务器.Telnet是常用的远程控制Web服务器的方法,监听TCP的23号端口. xinetd:新一代的网络超级守护进程,经常用来管理多种轻量级的Internet服务.xinetd提供类似于inetd+tcp_wrapper的功能,但它更强大更安全.xinetd能够同时监听多个指定的端口,在接受用户请

ubuntu中VNC的安装配置笔记

使用服务器时,利用远程桌面是非常方便的,否则需要跑到服务器机房操作非常的费事,或者需要远程操作机器是也可以使用,一般的操作系统都会带有远程桌面功能,但是不如第三方的的软件好用,对于linux系统常用的远程桌面软件是vnc,vnc分为服务器端和客户端,下面先讲讲vnc服务器端的安装与配置. 安装VNC服务器端 ubuntu中vnc服务器端的安装很简单,运行如下命令: $ sudo apt-get install vnc4server安装完成后第一次运行要求设置密码. 设置VNC登录密码 $ vnc

ubuntu中的django安装配置与操作

1 在对django安装(http://www.maiziedu.com/course/others/307-3024/)前,我们要确保python软件已经安装,ubuntu中默认有安装的.我们只需要安装django即可,解压django压缩文件,进入解压后的文件夹,运行,python setup.py install即可安装django到python中. 2 创建django项目,首先在任意位置创建文件夹,这里是在python用户下创建work文件夹,接着进入work运行一下命令即可创建dja

spark HA 安装配置和使用(spark1.2-cdh5.3)

安装环境如下: 操作系统:CentOs 6.6 Hadoop 版本:CDH-5.3.0 Spark 版本:1.2 集群5个节点 node01-05 node01-03 为worker node04.node05为master spark HA 必须要zookeepr来做协同服务,做master主备切换,zookeeper的安装和配置再次不做赘述. yum源的配置请看: 1.安装 查看spark的相关包有哪些: [[email protected] hadoop-yarn]# yum list |

docker中的oracle-11g-安装配置

docker镜像:wnameless/oracle-xe-11g 启动镜像的命令: docker run -d -v /data/oracle_data:/data/oracle_data -p 11522:22 -p 11521:1521 -e ORACLE_ALLOW_REMOTE=true --name oracle-11g wnameless/oracle-xe-11g 进入镜像命令: docker exec -it oracle-11g /bin/bash 1. 执行sqlplus命令

Windows环境下在IDEA编辑器中spark开发安装步骤

以下是windows环境下安装spark的过程: 1.安装JDK(version:1.8.0.152) 2.安装scala(version:2.11/2.12) 3.安装spark(version:spark-2.3.0-bin-hadoop2.6.tgz) 4.安装wintuils(设置windows系统的环境变量HADOOP_HOME) 以下是spark开发环境搭建: 1.scala插件安装 2.全局JDK和Library的设置 3.配置全局的scala SDK 4.导入spark依赖包(s

Docker的概念及安装配置

博文大纲: 一.docker简介 二.docker的三大核心概念1.镜像2.容器3.仓库 三.安装及docker的基础操作1.安装及启动2.docker的镜像操作3.docker的容器操作 一.docker简介 Docker作为开源社区最火爆的项目,它是在Linux容器里运行应用的开源工具,是一种轻量级的"虚拟机",docker的全部源代码都在https://github.com/docker 进行相关维护,其官网是:https://www.docker.com . docker之所以