Hadoop2.2集群安装配置-Spark集群安装部署

配置安装Hadoop2.2.0 部署spark 1.0的流程

一、环境描写叙述

本实验在一台Windows7-64下安装Vmware。在Vmware里安装两虚拟机分别例如以下

主机名spark1(192.168.232.147),RHEL6.2-64 操作系统,usernameRoot

从机名spark2(192.168.232.152)。RHEL6.2-64 操作系统,usernameRoot

二、环境准备

1、防火墙禁用。SSH服务设置为开机启动。并关闭SELINUX

2、改动hosts文件

3、配置SSH无password登录

4、准备安装软件包

5、JDK1.7安装及配置

以上操作比較简单。在此就无需赘述。

三. Hadoop2.2集群安装配置

1、创建安装文件夹(在spark2上同做)

mkdir -p /root/install/hadoop
mkdir -p /root/install/hadoop/hdfs
mkdir -p /root/install/hadoop/tmp
mkdir -p /root/install/hadoop/mapred
mkdir -p /root/install/hadoop/hdfs/name
mkdir -p /root/install/hadoop/hdfs/data
mkdir -p /root/install/hadoop/mapred/local
mkdir -p /root/install/hadoop/mapred/system

2、把文件hadoop-2.2.0.x86_64.tar.gz上传到/root/install文件夹下,并解压

3、配置Hadoop环境变量

export HADOOP_HOME=/root/install/hadoop-2.2.0
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

4、配置Hadoop

(1)向配置hadoop-env.sh文件加入

export JAVA_HOME=/root/install/jdk1.7.0_21

(2)向配置yarn-env.sh文件加入

export JAVA_HOME=/root/install/jdk1.7.0_21

(3)配置core-site.xml

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://spark1:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/root/install/hadoop/tmp</value>
        </property>
</configuration>

(3)配置hdfs-site.xml

<configuration>
        <property>
                <name>dfs.name.dir</name>
                <value>/root/install/hadoop/hdfs/name</value>
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/root/install/hadoop/hdfs/data</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
</configuration>

(4)配置mapred-site.xml

<configuration>
        <property>
                <name>mapreduce.cluster.local.dir</name>
                <value>/root/install/hadoop/mapred/local</value>
        </property>
        <property>
                <name>mapreduce.cluster.system.dir</name>
                <value>/root/install/hadoop/mapred/system</value>
        </property>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>spark1:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>spark1:19888</value>
        </property>

        <property>
                 <name>mapred.child.java.opts</name>
                 <value>-Djava.awt.headless=true</value>
        </property>
        <!-- add headless to default -Xmx1024m -->
        <property>
                 <name>yarn.app.mapreduce.am.command-opts</name>
                 <value>-Djava.awt.headless=true -Xmx1024m</value>
        </property>
        <property>
                 <name>yarn.app.mapreduce.am.admin-command-opts</name>
                 <value>-Djava.awt.headless=true</value>
         </property>
</configuration>

(5)配置masters

把localhost改动为spark1

(6)配置slaves

把localhost改动为spark1,spark2,这两个分别各一行

(7)配置好之后将整个安装文件夹复制到spark2的/root/install文件夹下

(8)编写一个脚本,方便改动配置文件时好同步到其它机器

[[email protected] install]# cat dispatchcfg.sh
#!/bin/bash
for target in spark2
do
    scp -r $HADOOP_CONF_DIR $target:/root/install/hadoop-2.2.0/etc
done

(9)格式化Hadoop的Namenode:hadoop namenode -format

5.Hadoop集群启动

(1)start-all.sh

(2)查看相关进程(jps)

6 Hadoop測试

(1)创建一个文件夹/input。并把数据文件上传到文件夹下

hadoop fs -mkdir /input

hadoop fs -put /etc/group /input

(2)执行wordcount

hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcount /input /output

四、安装部署spark1.0

(1)解压spark-1.0.0-bin-2.2.0.tgz

(2)在文件conf/spark-env.sh加入

export JAVA_HOME=/root/install/jdk1.7.0_21
export SPARK_MASTER_IP=spark1
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=1g

(3)启动spark集群:sbin/start-all.sh,并查看相关进程

(4)查看执行效果

(5)执行 bin/spark-shell --executor-memory 1g --driver-memory 1g --master spark://spark1:7077

时间: 2024-10-02 22:53:40

Hadoop2.2集群安装配置-Spark集群安装部署的相关文章

redis安装配置和使用;tomcat安装和使用

virtualbox主要有下面几种方式(不同版本称法不一样,但实质是一样的): 1.Intelnal Network:利用主机上的所有的虚拟机构建一个虚拟网络 2.NAT:能访问互联网,不能访问主机(或局域网)//通过这个下gcc 3.Host Interface:能访问主机(或局域网),不能访问互联网 修改过后 netstat restart 先确保Linux已安装gcc zmalloc.h:50:31: error: jemalloc/jemalloc.h: No such file or

CentOS 6.5+Zabbix2.0.6安装配置一. Zabbix安装1.1安装LAMP环境及依赖包

今天公司要我们安装zabbix,因为第一次安装所有遇到了很多问题都解决了,也自己写了脚本,后面会提到, 安装过程中遇到的问题我也截图出来,按我步骤安装下来,应该都没问题的.后续会分享下zabbix的使用更加详细说明文档. 现在版本换的快.不过我还是用2.0.6   这个可以用在2.2.0以上都没问题,亲自测试了. CentOS 6.5+Zabbix2.0.6安装配置 一. Zabbix安装 1.LAMP环境 #yum install mysql-server httpd php 这个需要安装下,

CentOS 6.6 上使用 luci/ricci 安装配置 RHCS 集群

1.配置 RHCS 集群的前提: 时间同步 名称解析,这里使用修改/etc/hosts 文件 配置好 yum 源,CentOS 6 的默认的就行 关闭防火墙(或者开放集群所需通信端口),和selinux, 关闭 NetworkManager 服务 2. RHCS 所需要的主要软件包为 cman 和 rgmanager cman: 是集群基础信息层,在 CentOS 6中依赖 corosync rgmanager: 是集群资源管理器, 类似于pacemaker 的功能 luci: 提供了管理 rh

CentOS 6.9安装配置ZooKeeper集群

一.ZooKeeper相关概念简介: ZooKeeper是一个开源的.分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件.它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护.域名服务.分布式同步.组服务等.ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效.功能稳定的系统提供给用户. 二.演示环境: IP地址 节点名称 操作系统 JDK版本 ZooKeeper版本 192.168.1.144 s

nginx安装配置+清缓存模块安装

经过一段时间的使用,发现nginx在并发与负载能力方面确实优于apache,现在已经将大部分站点从apache转到了nginx了.以下是nginx的一些简单的安装配置. 环境 操作系统:CentOS.RedHat IP地址:192.168.1.202 下载软件包 # mkdir /usr/local/src/tarbag # mkdir /usr/local/src/software # cd /usr/local/src/tarbag/ Nginx # wget http://www.ngin

阿里云服务器Linux CentOS安装配置(11)安装Wordpress

1 安装Apache yum install httpd -y vi /etc/httpd/conf/httpd.conf Listen 80 改成 Listen 81 #ServerName www.example.com:80   改成  ServerName 127.0.0.1:81 #NameVirtualHost *:80   改成  NameVirtualHost *:81 vi /etc/httpd/conf.d/welcome.conf 添加下面代码:<VirtualHost *

nginx之三:nginx安装配置+清缓存模块安装

经过一段时间的使用,发现 nginx 在并发与负载能力方面确实优于 apache,现在已经将大部分站点从 apache 转到 了 nginx 了.以下是 nginx 的一些简单的安装配置. 环境 操作系统:CentOS.RedHat IP 地址:192.168.1.202 下载软件包 # mkdir /usr/local/src/tarbag# mkdir /usr/local/src/software# cd /usr/local/src/tarbag/# wget http://www.ng

架构(三)MongoDB安装配置以及集群搭建

一 安装 1.1 下载MongoDB 我个人不太喜欢用wget url, 之前出现过wget下载的包有问题的情况 https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-3.4.7.tgz 1.2 上传服务器并解压 tar -zxvf mongodb-linux-x86_64-3.4.7.tgz 1.3 移动到/data/program/software/mongodb mv mongodb-linux-x86_64-3.4.7/ /data/

CentOS7.5 使用 kubeadm 安装配置 Kubernetes 集群(四)

在之前的文章,我们已经演示了 yum 和二进制方式的安装方式,本文我们将用官方推荐的 kubeadm 来进行安装部署. kubeadm 是 Kubernetes 官方提供的用于快速安装Kubernetes集群的工具,伴随Kubernetes每个版本的发布都会同步更新,kubeadm会对集群配置方面的一些实践做调整,通过实验kubeadm可以学习到Kubernetes官方在集群配置上一些新的最佳实践. 一.环境准备 1.软件版本 软件 版本 kubernetes v1.12.2 CentOS 7.