HDFS分布式安装配置笔记

1.准备三台虚拟机
centos6.5 192.168.20.171 node1 NameNode节点
centos6.5 192.168.20.172 node2 DataNode节点、SecondaryNameNode(必须和NameNode不在一台机器上)
centos6.5 192.168.20.173 node3 DataNode节点
由于Hadoop是由java开发的,所以请大家一开始就把jdk装好,务必关闭防火墙service iptables stop。

2.分别修改三台虚拟机主机名
vi /etc/sysconfig/network
分别修改HOSTNAME为
HOSTNAME=node1
HOSTNAME=node2
HOSTNAME=node3
保存退出,reboot重启服务器

3.分别修改三台虚拟机hosts文件
vi /etc/hosts
都添加一下内容
192.168.20.171 node1
192.168.20.172 node2
192.168.20.173 node3
保存退出

4.在node1上进行配置操作
cd /home
tar -zxvf hadoop-1.2.1-bin.tar.gz
cd hadoop-1.2.1/cd hadoop-1.2.1/
4.1 配置NameNode和hadoop工作目录
vi core-site.xml
在configuration标签中添加property内容:
<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://node1:9000</value>
     </property>
<property>
         <name>hadoop.tmp.dir</name>
         <value>/opt/hadoop-1.2.1</value>
     </property>
</configuration>
第一个property配置的是NameNode信息,即NameNode所在机器以及端口
第一个property配置hadoop工作目录
4.2 配置副本数
vi hdfs-site.xml
在configuration标签中添加property内容(不配置的时候默认是3):
<configuration>
     <property>
         <name>dfs.replication</name>
         <value>2</value>
     </property>
</configuration>
4.3 配置DataNode
vi slaves
删除localhost并添加以下节点配置:
node2
node3
4.3 配置SecondaryNameNode
vi masters
删除localhost并添加以下节点配置:
node2
4.4 配置JAVA_HOME
vi hadoop-env.sh
将export JAVA_HOME之前的注释去掉,修改jdk路径为:
export JAVA_HOME=/usr/java/jdk1.7.0_51
保存退出

5.配置从node1到node2和node1到node3免密码登录
由于DN、NN、SNN都是java进程都需要启动,集群的成功需要每个节点的进程都启动,
为了方便快速的能够启动hdfs各节点进程,我们配置ssh免密码登录后,hdfs可以启动所有节点进程,这样不需要每个节点单独启动了。
5.1设置本地ssh免密码登录
三个node上都执行:
ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa(生成私钥和公钥,id_dsa可随意命名)
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys(将公钥内容追加到authorized_keys中)
5.2拷贝node1上的公钥id_dsa.pub到node2和node3
在node1上:
将公钥拷贝到node2和node3的root目录
cd /root/.ssh
scp id_dsa.pub [email protected]:~
scp id_dsa.pub [email protected]:~
在node2和node3上:
将root目录中node1传过来的公钥追加到node2和node3的authorized_keys文件中,node2和node3分别执行:
cd ~
cat id_dsa.pub >> ~/.ssh/authorized_keys
可以使用
cd .ssh/
more authorized_keys 
检查一下node1的id_dsa.pub是否已经追加成功
5.3免密码登录测试
在node1上执行ssh node2和ssh node3,应该已经可以免密码登陆了。

6.启动hadoop
6.1将node1的hadoop压缩包拷贝到node2和node3
scp -r /home/hadoop-1.2.1-bin.tar.gz [email protected]:/home/
scp -r /home/hadoop-1.2.1-bin.tar.gz [email protected]:/home/
6.2在node2和node3上解压
cd /home
tar -zxvf hadoop-1.2.1-bin.tar.gz
6.3将node的配置文件全部拷贝到node2和node3(保证各节点hadoop一模一样)
在node1上面:
cd /home/hadoop-1.2.1/conf/
scp ./* [email protected]:/home/hadoop-1.2.1/conf
scp ./* [email protected]:/home/hadoop-1.2.1/conf
6.4进行格式化
在node1上执行:
cd /home/hadoop-1.2.1/bin
格式化 ./hadoop namenode -format
启动hdfs ./start-dfs.sh
6.5查看各机器上的hdfs节点状态
[[email protected] bin]# jps
4471 Jps
4337 NameNode
[[email protected] home]# jps
4099 Jps
4041 SecondaryNameNode
3958 DataNode
[[email protected] home]# jps
3732 DataNode
3796 Jps
从上面可以看出:
node1上有一个NameNode进程
node2上有一个DataNode进程和一个SecondaryNameNode进程
node3上有一个DataNode进程
6.6关闭hdfs
cd /home/hadoop-1.2.1/bin
./stop-dfs.sh

7.通过浏览器访问hdfs
修改C:\Windows\System32\drivers\etc\hosts,添加
192.168.20.171       node1
192.168.20.172       node2
192.168.20.173       node3
访问http://node1:50070/dfshealth.jsp
可以查看hdfs文件系统,以及健康状态等信息。
至此,hdfs安装配置结束。

原文地址:https://www.cnblogs.com/gjack/p/8616047.html

时间: 2024-10-13 02:03:02

HDFS分布式安装配置笔记的相关文章

Hadoop2.2.0分布式环境配置笔记2-编译64位hadoop源码

11.配置hadoop分布式环境!  三台机器都需要这么配置 1).将/opt/modules/hadoop-2.2.0-src重命名  mv /opt/modules/hadoop-2.2.0-src/ /opt/modules/hadoop-2.2.0-src_x32_back 2).解压64位源码 tar -zxvf /opt/modules/hadoop-2.2.0-src_x32_back/hadoop-dist/target/hadoop-2.2.0.tar.gz -C /opt/m

Hadoop2.2.0分布式环境配置笔记1-编译64位hadoop源码

我的测试环境是三台机器 分别是 Hadoop-Yarn.Hark.Com 192.168.1.200 Hadoop-Slave1.Hark.Com 192.168.1.201 Hadoop.Slave2.Hark.Com 192.168.1.202 我为了自己能充分练习hadoop 64位源码编译,所以三台机器都进行了下边的配置 环境: vmware9+centos6.4+hadoop2.2.0 0.创建hadoop帐号,大部分操作都要使用hadoop帐号的 1.关闭窗口模式 使用root账号

nginx图片过滤处理模块http_image_filter_module安装配置笔记

nginx图片过滤处理模块http_image_filter_module安装配置笔记 http_image_filter_module是nginx提供的集成图片处理模块,支持nginx-0.7.54以后的版本,在网站访问量不是很高磁盘有限不想生成多余的图片文件的前提下可,就可以用它实时缩放图片,旋转图片,验证图片有效性以及获取图片宽高以及图片类型信息,由于是即时计算的结果,所以网站访问量大的话,不建议使用. 安装还是很简单的,默认HttpImageFilterModule模块是不会编译进ngi

Zookeeper分布式安装配置

Zookeeper分布式安装配置 Zookeeper介绍 概述 1.ZooKeeper是一个分布式的,开放源码的分布式应用程序协调服务,是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件.它是一个为分布式应用提供一致性服务的软件,提供的功能包括:配置维护.域名服务.分布式同步.组服务等. 2.ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效.功能稳定的系统提供给用户. 3.ZooKeeper包含一个简单的原语集,提供Java和C的接

HBase基础和伪分布式安装配置

一.HBase(NoSQL)的数据模型 1.1 表(table),是存储管理数据的. 1.2 行键(row key),类似于MySQL中的主键,行键是HBase表天然自带的,创建表时不需要指定 1.3 列族(column family),列的集合. 一张表中有多个行健,一个行健读取出来的是一条记录,列族和MySQL中的列差不多,但是它是列的集合 HBase中列族是需要在定义表时指定的,列是在插入记录时动态增加的. HBase表中的数据存储在本地磁盘上的时候,每个列族单独一个作为文件存储. 上图表

GitLab 安装配置笔记(转)

GitLab的安装方式 GitLab的两种安装方法: 编译安装 优点:可定制性强.数据库既可以选择MySQL,也可以选择PostgreSQL;服务器既可以选择Apache,也可以选择Nginx. 缺点:国外的源不稳定,被墙时,依赖软件包难以下载.配置流程繁琐.复杂,容易出现各种各样的问题.依赖关系多,不容易管理,卸载GitLab相对麻烦. 通过rpm包安装 优点:安装过程简单,安装速度快.采用rpm包安装方式,安装的软件包便于管理. 缺点:数据库默认采用PostgreSQL,服务器默认采用Ngi

jk安装配置笔记

jk安装配置 jk用于整合apache与tomcat. 1.安装jk wget http://www.apache.org/dist/tomcat/tomcat-connectors/jk/tomcat-connectors-1.2.40-src.tar.gz tar -xvf tomcat-connectors-1.2.40-src.tar.gz  cd tomcat-connectors-1.2.40-src/native/ ./configure --with-apxs=/usr/loca

ubuntu中VNC的安装配置笔记

使用服务器时,利用远程桌面是非常方便的,否则需要跑到服务器机房操作非常的费事,或者需要远程操作机器是也可以使用,一般的操作系统都会带有远程桌面功能,但是不如第三方的的软件好用,对于linux系统常用的远程桌面软件是vnc,vnc分为服务器端和客户端,下面先讲讲vnc服务器端的安装与配置. 安装VNC服务器端 ubuntu中vnc服务器端的安装很简单,运行如下命令: $ sudo apt-get install vnc4server安装完成后第一次运行要求设置密码. 设置VNC登录密码 $ vnc

Hadoop完全分布式安装配置完整过程

一. 硬件.软件准备 1. 硬件设备 为了方便学习Hadoop,我采用了云服务器来配置Hadoop集群.集群使用三个节点,一个阿里云节点.一个腾讯云节点.一个华为云节点,其中阿里云和腾讯云都是通过使用学生优惠渠道购买了一年的云服务,华为云使用免费7天或15天的云服务器.我决定使用腾讯云节点作为Master节点,阿里云节点和华为云节点作为Slave节点.集群基本结构如下图: 云服务器配置信息如下: 集群网络环境: 分别在每台机器上创建了用户hadoop,并且全部禁用了防火墙. 2. 软件 由于Ha