Spark入门到精通--(第七节)环境搭建(服务器搭建)

  Spark搭建集群比较繁琐,需要的内容比较多,这里主要从Centos、Hadoop、Hive、ZooKeeper、kafka的服务器环境搭建开始讲。其中Centos的搭建不具体说了,主要讲下集群的配置。

环境搭建软件包

  由于我是直接拿了三台现成的Centos 5.6的系统上进行搭建的,所以Centos的搭建就不说了,有需要的可以自行网上搜一下,也比较简单。当然以下有些工具也可以用你们已经顺手的工具包O(∩_∩)O~~

  • Centos 5.6(Linux服务器)
  • JDK 1.7(Java开发环境)
  • Xshell 5(windows连接Linux)
  • Xftp 4(windows上传Linux)
  • Hadoop 2.4.1
  • Hive 0.13
  • ZooKeeper 3.4.5
  • kafka 2.9.2-0.2.1
  • Spark 1.3.0

Centos服务器配置

  安装完三台Centos的操作系统之后,我们要对三台服务器进行免ssh登录。

  首先我们先临时性地给三台服务器设置个名字。以一台为例,另外两台依样画葫芦就OK。

  • 设置主机名(三台服务器)
[[email protected] ~]# hostname    //显示主机名localhost

[[email protected] ~]# sudo hostname spark1    设置主机名为spark1,另外两台服务器可以依次设为spark2、spark3

//若想永久性修改可以这样
[[email protected] ~]# vi /etc/sysconfig/network

//编辑文件如下
HOSTNAME=spark1  #修改localhost.localdomain为spark1

设置完成之后继续修改/etc/hosts文件

[[email protected] ~]# vi /etc/hosts

[ip地址] spark1

如果是永久性修改,要重启服务器;临时性修改就不用了,否则重启完由还原了。

设置完之后我们可以ping地址,看是否OK。

[[email protected] ~]# ping spark1

  • 关闭防火墙(三台服务器)
[[email protected] ~]# service iptables stop
[[email protected] ~]# chkconfig iptables off

[[email protected] ~]# vi /etc/selinux/config    //在配置文件中修改

SELINUX=disabled
  •  设置免密码ssh登陆(三台服务器)

我们设置完三台Centos服务器的hostname之后,继续进入三台服务器,把另外2台服务器的hostname映射都配置在/etc/hosts文件中。

[[email protected] ~]# vi /etc/hosts
[ip地址一1] spark1    //之前配置的
[ip地址一2] spark2  
[ip地址一3] spark3

然后我们设置免密码ssh登录。

[[email protected] ~]# ssh-keygen -t rsa    //设置ssh的登录密码

一路回车向下不设置密码。然后执行下面命令。

[[email protected] ~]# cd /root/.ssh    //生成的密钥文件自动放在这个文件夹下
[[email protected] ~]# cp id_rsa.pub authorized_keys
[[email protected] ~]# ls

authorized_keys  id_rsa  id_rsa.pub  known_hosts

//至此我们本机已经不用密码登陆了

[[email protected] ~]# ssh spark1

然后我们把ssh密钥传给其他另外2台服务器使得可以互相免密码ssh登录。

[[email protected] ~]# ssh-copy-id -i spark2    //将ssh密钥复制给spark2

//第一次需要输入spark2的登录密码,按提示完成

//完成后

[[email protected] ~]# ssh spark2

发现可以免密码直接登录spark2服务器了,另外两台服务器依次22免密码ssh登录设置完成。

时间: 2024-12-28 01:08:59

Spark入门到精通--(第七节)环境搭建(服务器搭建)的相关文章

Spark入门到精通--(第九节)环境搭建(Hive搭建)

上一节搭建完了Hadoop集群,这一节我们来搭建Hive集群,主要是后面的Spark SQL要用到Hive的环境. Hive下载安装 下载Hive 0.13的软件包,可以在百度网盘进行下载.链接: http://pan.baidu.com/s/1gePE9O3 密码: unmt

Spark修炼之道(进阶篇)——Spark入门到精通:第一节 Spark 1.5.0集群搭建

作者:周志湖 网名:摇摆少年梦 微信号:zhouzhihubeyond 本节主要内容 操作系统环境准备 Hadoop 2.4.1集群搭建 Spark 1.5.0 集群部署 注:在利用CentOS 6.5操作系统安装spark 1.5集群过程中,本人发现Hadoop 2.4.1集群可以顺利搭建,但在Spark 1.5.0集群启动时出现了问题(可能原因是64位操作系统原因,源码需要重新编译,但本人没经过测试),经本人测试在ubuntu 10.04 操作系统上可以顺利成功搭建.大家可以利用CentOS

Spark修炼之道(进阶篇)——Spark入门到精通:第二节 Hadoop、Spark生成圈简介

本节主要内容 Hadoop生态圈 Spark生态圈 1. Hadoop生态圈 原文地址:http://os.51cto.com/art/201508/487936_all.htm#rd?sukey=a805c0b270074a064cd1c1c9a73c1dcc953928bfe4a56cc94d6f67793fa02b3b983df6df92dc418df5a1083411b53325 下图给出了Hadoop生态圈中的重要产品: 图片来源:http://www.36dsj.com/archiv

Spark入门到精通--(第二节)Scala编程详解基础语法

Scala是什么? Scala是以实现scaleable language为初衷设计出来的一门语言.官方中,称它是object-oriented language和functional language的混合式语言. Scala可以和java程序无缝拼接,因为scala文件编译后也是成为.class文件,并且在JVM上运行. Spark是由Scala进行开发的. Scala安装? 这里就讲一下Scala在Centos上进行安装的过程,和安装JDK差不多. 官网下载Scala:http://www

Spark修炼之道(进阶篇)——Spark入门到精通:第九节 Spark SQL运行流程解析

1.整体运行流程 使用下列代码对SparkSQL流程进行分析,让大家明白LogicalPlan的几种状态,理解SparkSQL整体执行流程 // sc is an existing SparkContext. val sqlContext = new org.apache.spark.sql.SQLContext(sc) // this is used to implicitly convert an RDD to a DataFrame. import sqlContext.implicits

SaltStack 入门到精通 - 第七篇: Targeting

什么是Targeting? Targeting minions 是指那些minion会作为运行命令或是执行状态的目标.这些目标可以是一个主机名,系统信息,定义的分组,甚至是自定义的绑定的对象. 例如命令  salt web1 apache.signal restart 可以重启ID 为web1的minion的apache.当然也可以在top文件中使用web1来作为目标匹配的内容: base:   'web1':     - webserver Targing 有哪些匹配方式? Minion Id

Spark修炼之道(进阶篇)——Spark入门到精通:第十五节 Kafka 0.8.2.1 集群搭建

作者:周志湖 微信号:zhouzhihubeyond 本节为下一节Kafka与Spark Streaming做铺垫 主要内容 1.kafka 集群搭建 1. kafka 集群搭建 kafka 安装与配置 到下面的地址下载:Scala 2.10 - kafka_2.10-0.8.2.1.tgz http://kafka.apache.org/downloads.html 下载完成后,使用命令 tar -zxvf kafka_2.10-0.8.2.1.tgz 解压,解压后的目录如下 进入config

Python基础知识详解 从入门到精通(七)类与对象

本篇主要是介绍python,内容可先看目录其他基础知识详解,欢迎查看本人的其他文章Python基础知识详解 从入门到精通(一)介绍Python基础知识详解 从入门到精通(二)基础Python基础知识详解 从入门到精通(三)语法与函数Python基础知识详解 从入门到精通(四)列表.元组.字典.集合Python基础知识详解 从入门到精通(五)模块管理Python基础知识详解 从入门到精通(六)文件操作PS:很多人在学习Python的过程中,往往因为遇问题解决不了或者没好的教程从而导致自己放弃,为此

Spark入门到精通--(第十节)环境搭建(ZooKeeper和kafka搭建)

上一节搭建完了Hive,这一节我们来搭建ZooKeeper,主要是后面的kafka需要运行在上面. ZooKeeper下载和安装 下载ZooKeeper 3.4.5软件包,可以在百度网盘进行下载.链接: http://pan.baidu.com/s/1gePE9O3 密码: unmt. 下载完用Xftp上传到spark1服务器,我是放在/home/software目录下. [[email protected] lib]# cd /home/software/ [[email protected]