Hadoop 2.x 联邦配置

配置HDFS联邦

配置etc/hadoop/hdfs-site.xml

<configuration>
 <property>
 <name>dfs.nameservices</name>
 <value>ns1,ns2</value>
 </property>

 <property>
 <name>dfs.namenode.rpc-address.ns1</name>
 <value>snn-host1:rpc-port</value>
 </property>
 <property>
 <name>dfs.namenode.http-address.ns1</name>
 <value>snn-host2:http-port</value>
 </property>
 <property>
 <name>dfs.namenode.secondaryhttp-address.ns1</name>
 <value>snn-host1:http-port</value>
 </property>

 <property>
 <name>dfs.namenode.rpc-address.ns2</name>
 <value>snn-host2:rpc-port</value>
 </property>
 <property>
 <name>dfs.namenode.http-address.ns2</name>
 <value>snn-host2:http-port</value>
 </property>
 <property>
 <name>dfs.namenode.secondaryhttp-address.ns2</name>
 <value>snn-host2:http-port</value>
 </property>
</configuration>

格式化名称节点

格式化的第一个节点可以不指定ID,但是格式化第二个节点必须指定ID, 否则不会聚合在一个集群中

Step 1: 格式化其中一个节点, 不指定clusterId则自动生成

./bin/hdfs namenode -format [-clusterId <cluster_id>]

Step 2: 格式化另外一个节点, 注意clusterId要和之前的节点一样

./bin/hdfs namenode -format -clusterId <cluster_id>
时间: 2024-12-26 06:39:03

Hadoop 2.x 联邦配置的相关文章

Hadoop生产环境的配置

生产环境的搭建 主机规划 这里我们使用5 台主机来配置Hadoop集群. djt11/192.168.3.11 djt17/192.168.3.12 djt13/192.168.3.13 djt14/192.168.3.14 djt15/192.168.3.15 namenode 是 是 否 否 否 datanode 否 否 是 是 是 resourcemanager 是 是 否 否 否 journalnode 是 是 是 是 是 zookeeper 是 是 是 是 是 Journalnode和

[Hadoop]基于Eclipse的Hadoop应用开发环境配置

安装Eclipse 下载Eclipse(点击进入下载),解压安装.我安装在/usr/local/software/目录下. 在eclipse上安装hadoop插件 下载hadoop插件(点击进入下载) 把插件放到eclipse/plugins目录下. 重启eclipse,配置hadoop installation directory 如果安装插件成功,打开Window–>Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你需要配置Hadoop installatio

Hadoop伪分布式环境配置

Step1:关闭防火墙   service iptables stop[status]  service iptables status  chkconfig --list |grep iptables  chkconfig iptables offStep2:修改IP   (重启网卡:service network restart)Step3:修改hostname  /etc/hostsStep4:SSH免密码登陆  产生密钥(~/.ssh中)ssh-keygen -t rsa   cd ~/

Hadoop的学习前奏(二)——Hadoop集群的配置

前言: Hadoop集群的配置即全然分布式Hadoop配置. 笔者的环境: Linux:  CentOS 6.6(Final) x64 JDK:    java version "1.7.0_75" OpenJDK Runtime Environment (rhel-2.5.4.0.el6_6-x86_64 u75-b13) OpenJDK 64-Bit Server VM (build 24.75-b04, mixed mode) SSH:    OpenSSH_5.3p1, Ope

ubuntu 14.04 hadoop eclipse 初级环境配置

接触hadoop第二天,配置hadoop到环境也用了两天,将自己配置的过程写在这里,希望对大家有所帮助! 我将文中用到的所有资源都分享到了  这里,点开就能下载,不需要一个个的找啦! 其中有<Hadoop 技术内幕>这本书,第一章讲述了这个配置过程,但是不详细~ ---------------安装jdk------------------------------- 1. 下载jdk1.6.0_45 2.解压到opt文件夹下,配置/etc/profile,在文件尾部加上 #set java en

Hadoop集群安装配置文档

Hadoop集群安装配置文档 日期 内容 修订人 2015.6.3 文档初始化 易新             目录 1 文档概要... 5 1.1软件版本... 5 1.2机器配置... 5 2 虚拟机配置... 5 2.1新建虚拟机... 5 2.2虚拟网络配置... 8 3 CentOS安装及配置... 9 3.1系统安装... 9 3.2系统配置... 10 3.2.1防火墙配置... 10 3.2.2 SElinux配置... 10 3.2.3 IP配置... 11 3.2.4安装vim

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS

摘自:http://www.powerxing.com/install-hadoop-cluster/ 本教程讲述如何配置 Hadoop 集群,默认读者已经掌握了 Hadoop 的单机伪分布式配置,否则请先查看Hadoop安装教程_单机/伪分布式配置 或 CentOS安装Hadoop_单机/伪分布式配置. 本教程适合于原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1 等版本,主要参考了官方安装教程,步骤详细,辅以适当说明,保证按照步骤来,都能顺利安装并运行 Ha

Hadoop单机模式的配置与安装

Hadoop单机模式的配置与安装 版权所有 前言: 由于Hadoop属于java程序,所以,安装Hadoop之前需要先安装jdk. 对于hadoop0.20.2的单机模式安装就需要在一个节点(一台主机)上运行5个节点. 分别是: JobTracker:负责Hadoop的Job任务分发和管理. TaskTracker:负责在单个节点上执行MapReduce任务. 对于Hadoop里面的HDFS的节点又有 NameNode:主节点,负责管理文件存储的名称节点 DateNode:数据节点,负责具体的文

cdh5 hadoop redhat 本地仓库配置

cdh5 hadoop redhat 本地仓库配置 cdh5 在网站上的站点位置: http://archive-primary.cloudera.com/cdh5/redhat/6/x86_64/cdh/ 在RHEL6上配置指向这个repo非常简单,只要把: http://archive-primary.cloudera.com/cdh5/redhat/6/x86_64/cdh/cloudera-cdh5.repo 下载存储到本地即可: /etc/yum.repos.d/cloudera-cd