hadoop-zookeeper的HA集群的搭建

附上word文档:https://files.cnblogs.com/files/han-guang-xue/6.01hadoop-zookeeper%E7%9A%84HA%E9%9B%86%E7%BE%A4%E7%9A%84%E6%90%AD%E5%BB%BA.pdf

在搭建过程中出现了各种问题,但是还好,最终都解决掉了,其中遇见了有各种奇葩的bug

1>启动yarn-site.xml或是输入其他命令报the authenticity of host  ‘主机名称+id‘ cant be established

  

解决方法:需要在另外两台机器上使用ssh ip地址,例如 ssh 192.168.188.130 来免密登录一下需要开启yarn的机器;

hdfs-site.xml中的配置内容  移除之前的hdfs-site.xml文件,然后新建hdfs-site.xml,拷贝

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
        <!--指定hdfs的nameservices需要与core-site中的相同-->
        <property>
                <name>dfs.nameservices</name>
                <value>ns</value>
        </property>
        <!--ns下面有两个NameNode-->
         <property>
                <name>dfs.ha.namenodes.ns</name>
                <value>nn1,nn2</value>
        </property>
        <!--nn1的RPC通信地址-->
         <property>
                <name>dfs.namenode.rpc-address.ns.nn1</name>
                <value>han01:9000</value>
        </property>
        <!--nn1的http通信地址-->
         <property>
                <name>dfs.namenode.http-address.ns.nn1</name>
                <value>han01:50070</value>
        </property>
        <!--nn2的RPC通信地址-->
         <property>
                <name>dfs.namenode.rpc-address.ns.nn2</name>
                <value>han02:9000</value>
        </property>
        <!--nn2的http通信地址-->
         <property>
                <name>dfs.namenode.http-address.ns.nn2</name>
                <value>han02:50070</value>
        </property>
        <!--指定NameNode的元数据在JournalNode上的存放-->
         <property>
                <name>dfs.namenode.shared.edits.dir</name>
                <value>qjournal://han01:8485;han02:8485;han03:8485/ns</value>
        </property>
        <!--指定JournalNode的本地存放地址-->
         <property>
                <name>dfs.journalnode.edits.dir</name>
                <value>/zhiyou/hadoop/journal</value>
        </property>
         <!--开启NameNode故障时自动切换-->
         <property>
                <name>dfs.ha.automatic-failover.enabled</name>
                <value>true</value>
        </property>
        <!--配置失败自动切换的实现方式-->
        <property>
                <name>dfs.client.failover.proxy.provider.ns</name>
                <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
        </property>
        <!--配置隔离机制-->
        <property>
                <name>dfs.ha.fencing.methods</name>
                <value>sshfence</value>
        </property>
        <!--设置免密登录-->
        <property>
                <name>dfs.ha.fencing.ssh.private-key-files</name>
                <value>/root/.ssh/id_rsa</value>
        </property>

        <!--设置name和data的存储目录-->
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:///zhiyou/hadoop/hdfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:///zhiyou/hadoop/hdfs/data</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>3</value>
        </property>
        <!--在NN和DN上开启WebHDFS(rest API)功能,不是必须-->
        <property>
                <name>dfs.webhdfs.enabled</name>
                <value>true</value>
        </property>
</configuration>

原文地址:https://www.cnblogs.com/han-guang-xue/p/9916368.html

时间: 2024-10-11 23:30:49

hadoop-zookeeper的HA集群的搭建的相关文章

Hadoop HA集群的搭建

HA 集群搭建的难度主要在于配置文件的编写, 心细,心细,心细! ha模式下,secondary namenode节点不存在... 集群部署节点角色的规划(7节点)------------------server01 namenode zkfcserver02 namenode zkfcserver03 resourcemanagerserver04 resourcemanagerserver05 datanode nodemanager zookeeper journal nodeserver

zookeeper伪分布式集群环境搭建

step1.下载 下载地址:http://zookeeper.apache.org/releases.html 将下载的压缩包放到用户家目录下(其他目录也可以) step2.解压 [plain] view plain copy $tar –zxvf zookeeper-3.4.6.tar.gz 重命名 [plain] view plain copy $mv zookeeper-3.4.6 zookeeper step3.配置 进入zookeeper/conf/目录下,将改目录下的zoo_samp

spark基于Zookeeper的HA集群重启

1.首先应该了解,spark集群基于Zookeeper的HA实现 当master挂了之后,会重新ElectLeader,不会影响Application的运行.默认的Zookeeper"/spark"目录下,会持久化driver,worker,master等信息. 2.Application需要重新submit的情况是在重启Driver所在的机器的时候,也就是说Driver一旦挂了,那么只有重新去提交Application这一途径. 3.重启步骤: 01,02,03三台master机器.

zookeeper学习-3集群环境搭建

安装前准备: 1.安装JDK 1) 解压安装包     tar -zxvf jdk-7u45-linux-x64.tar.gz -C apps/2) 修改环境变量      vi /etc/profile    在文件最后添加      export JAVA_HOME=/root/apps/jdk1.7.0_45      export PATH=$PATH:$JAVA_HOME/bin     保存退出 3) 然后重新加载环境变量    source /etc/profile 2.上传zoo

hadoop2.8 ha 集群搭建

简介: 最近在看hadoop的一些知识,下面搭建一个ha (高可用)的hadoop完整分布式集群: 搭建步骤: 1>  关闭防火墙,禁止设置开机启动: (1) //临时关闭 systemctl stop firewalld (2) //禁止开机启动 systemctl disable firewalld   注意:centos7防火墙默认是:firewalld centos6 的命令是: //临时关闭 service iptables stop //禁止开机启动 chkconfig iptabl

大数据 -- Hadoop集群环境搭建

首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统.它其实是将一个大文件分成若干块保存在不同服务器的多个节点中.通过联网让用户感觉像是在本地一样查看文件,为了降低文件丢失造成的错误,它会为每个小文件复制多个副本(默认为三个),以此来实现多机器上的多用户分享文件和存储空间. Hadoop主要包含三个模块: HDFS模块:HDFS负责大数据的存储,通过将大文件分块后进行分布式存储方式,突破了服务器硬盘大小的限制,解决了单

完全分布式ZooKeeper集群和Kafka集群的搭建和使用

自己使用的版本为zookeeper-3.4.7.tar.gz和kafka_2.10-0.9.0.0.tgz.首先要安装JDK(jdk-7u9-linux-i586.tar.gz)和SSH,IP地址的分配为Kafka1(192.168.56.136),Kafka2(192.168.56.137),Kafka3(192.168.56.138).下面主要介绍SSH的安装,ZooKeeper和Kafka集群的搭建和使用. 一. SSH的安装 (1)apt-get install ssh (2)/etc/

对HA的简单认识以及HA集群删除

高可用集群HA,英文全称为High Availability,简单来说,集群就是一组计算机,它们作为一个整体向用户提供一组网络资源,这些单个的计算机系统就是集群的节点. 高可用集群的出现就是为了使集群的整体服务尽可能可用,从而减少由计算机硬件和软件易错性带来的损失.如果某个节点失效,他的备节点就要在几秒钟的时间内接管他的职责,因此,对于用户而言,集群永远不会停机. 高可用集群软件的主要作用就是实现故障检查和业务切换的自动化.只有两个节点的高可用集群又成为双机热备,使用两台服务器互相备份.当一台服

hadoop 的HA集群搭建

1.关闭防火墙 1.1 查看防火墙状态 service iptables status 1.2 关闭防火墙 service iptables off 1.3 关闭防火墙开机启动 chkconfig iptables off 2.关闭selinux vi /etc/selinux/config 将 SELINUX=enforcing 改为 SELINUX=disabled 3.ssh免密登陆 ssh-keygen -t rsa ssh-copy-id hostname 4.解压安装hadoop j