hadoop安装与配置

1.检查JDK版本

2.时间同步

3.设置免密码登录

#生成密钥(node1,node2,node3,node4)
ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/id_dsa
cd ~/.ssh/
ls
#说明
##id_ds 私钥
##is_dsa.pub 公钥
#将公钥文件追加到本地的认证文件中(node1,node2,node3,node4)
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh 192.168.2.136
#Last login: Sun Jul  9 14:14:35 2017 from 192.168.2.136,表示登录成功,并且是不需要输入密码的
exit
#logout 退出
将node1中的公钥复制到node2,node3,node4中
 scp ./id_dsa.pub [email protected]:/opt/
 scp ./id_dsa.pub [email protected]:/opt/
 scp ./id_dsa.pub [email protected]:/opt/
将/opt/id_dsa.pub添加到node2,node3,node4的认证文件中
 cat /opt/id_dsa.pub >> ~/.ssh/authorized_keys

4.设置node1为NameNode,node2,node3,node4为datanode

将hadoop压缩包上传到node1的/root目录
tar -zxvf hadoop-2.5.1_x64.tar.gz

mv hadoop-2.5.1 /home/
cd /home/
ls
cd hadoop-2.5.1
ls
cd etc/hadoop

#配置1,修改hadoopenv.sh
vi hadoop-env.sh
#将jdk的安装目录添加到这个文件
export JAVA_HOME=/usr/java/jdk1.7.0_79

#配置2,修改core-site.xml
    vi core-site.xml
		<configuration>
		    <property>
		        <name>fs.defaultFS</name>
		        <value>hdfs://192.168.2.136:9000</value>
		    </property>
		    <property>
		        <name>hadoop.tmp.dir</name>
		        <value>/opt/hadoop-2.5</value>
		    </property>
		</configuration>

	#配置3,修改hdfs-site.xml
		vi hdfs-site.xml
		<configuration>
		    <property>
		        <name>dfs.namenode.secondary.http-address</name>
		        <value>192.168.2.137:50090</value>
		    </property>
		    <property>
		        <name>dfs.namenode.secondary.https-address</name>
		        <value>192.168.2.137:50091</value>
		    </property>
		</configuration>

	#配置4,修改slaves
		vi slaves
		192.168.2.137
		192.168.2.138
		192.168.2.139

	#配置5,修改masters
		vi masters
		192.168.2.137

5.复制文件

scp -r hadoop-2.5.1/ [email protected]:/home/
scp -r hadoop-2.5.1/ [email protected]:/home/
scp -r hadoop-2.5.1/ [email protected]:/home/

6.配置hadoop环境变量

vi ~/.bash_profile
export HADOOP_HOME=/home/hadoop-2.5.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

7.复制文件

scp ~/.bash_profile [email protected]:/root/
scp ~/.bash_profile [email protected]:/root/
scp ~/.bash_profile [email protected]:/root/

8.重新加载~/.bash_profile

source ~/.bash_profile

9.格式化hdf文件系统,只能在NameNode(node1)上使用

hdfs namenode -format

10.查看生成文件fsimage

cd /opt/hadoop-2.5/dfs/name/current
ls -l

11.启动节点

start-dfs.sh
#start-all.sh

12.关闭防火墙

service iptables stop

13.监控页面进行访问

http://192.168.2.136:50070/dfshealth.html#tab-overview

14.说明:保证/etc/hosts下的配置正确

时间: 2024-10-12 11:19:24

hadoop安装与配置的相关文章

[Hadoop入门] - 2 ubuntu安装与配置 hadoop安装与配置

ubuntu安装(这里我就不一一捉图了,只引用一个网址, 相信大家能力) ubuntu安装参考教程:  http://jingyan.baidu.com/article/14bd256e0ca52ebb6d26129c.html 注意下面几点: 1.设置虚拟机的IP, 点击虚拟机的右下角网络连接图标, 选择”桥接模式“, 这样才能分配到你的局域网IP, 这个很重要因为后面hadoop要用到局域网. 2.在ubuntu里面查看ip的命令:ifconfig可以显示出你的IP地址, 看一下IP是否为你

hadoop安装、配置

环境: 三台机器 ubuntu14.04 hadoop2.7.5 架构: machine101 :名称节点.数据节点.SecondaryNaemnode.ResourceManager.NodeManger     machine102.machine103 :数据节点.NodeManger 1.安装jdk\hadoop (1)解压hadoop.tar.gz到/soft/ (2)配置环境变量 JAVA_HOME=/soft/jdk1.7.0_45 (必须要写,hadoop会去找名叫JAVA_HO

Hadoop安装及配置

一.系统及软件环境 1.操作系统 CentOS release 6.5 (Final) 内核版本:2.6.32-431.el6.x86_64 master.fansik.com:192.168.83.118 node1.fansik.com:192.168.83.119 node2.fansik.com:192.168.83.120 2.jdk版本:1.7.0_75 3.Hadoop版本:2.7.2 二.安装前准备 1.关闭防火墙和selinux # setenforce 0 # service

Hadoop安装和配置

环境:Ubuntu16.10.hadoop-2.7.2 一. 在Linux中安装hadoop 1. 将hadoop的开发包上传到Linux中 2. 将hadoop解压缩到"/usr/local"目录下 tar xzvf hadoop-2.7.2.tar.gz -C /usr/local 3. 进行目录名称修改 mv hadoop-2.7.2/ hadoop 4. 进行环境变量配置 使用vim进入"/etc/profile"文件里进行目录的定义 export HADO

centos hadoop安装及配置

1) 配置jdk. 2) 配置ssh. 3) 配置Hadoop相关文件. 配置jdk 下载 jdk1.8.XXXXXXX.tar.gz 解压  tar -zxvf jdk1.8.XXXXXX.tar.gz vim /etc/profile export JAVA_HOME= export PATH= export CLASS_PATH= source /etc/profile 配置ssh  免密码登陆   (此处略) ssh-keygen -t rsa -P'' 配置hadoop mapredu

Hadoop那些事儿(五)---Hive安装与配置

我在安装Hive的过程中遇到了好多问题,捣鼓了好久,所以下面的有些操作可能不是必要的操作. 1.配置YARN YARN 是从 MapReduce 中分离出来的,负责资源管理与任务调度.YARN 运行于 MapReduce 之上,提供了高可用性.高扩展性. 伪分布式环境不启动YARN也可以,一般不影响程序运行,所以在前边的Hadoop安装与配置中没有配置YARN. 我在安装Hive的过程中,由于一个异常牵扯到了yarn下的jar,所以我觉得还是有必要先把yarn配置一下(这步可能不是必要的) 找到

Hadoop学习笔记0001——Hadoop安装配置

Hadoop配置主要事项 1. 保证Master和Slave能够ping通: 2. 配置/etc/hosts文件: 3. 能够ssh无密码切换各台主机: 4. 安装sun公司的jdk,在/etc/profile中设置好环境变量: 5. 下载Hadoop,安装.配置.搭建Hadoop集群: 1.Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(

初识Hadoop一,配置及启动服务

一.Hadoop简介: Hadoop是由Apache基金会所开发的分布式系统基础架构,实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS:Hadoop框架最核心设计就是HDFS和MapReduce,HDFS为海量数据提供了存储,MapReduce为海量数据提供了计算. Hadoop要解决的问题:海量数据的存储(HDFS).海量数据的分析(MapReduce)和资源管理调度(YARN) Hadoop主要作用于分布式 二.Hadoop实现机制 1.

Hadoop集群内lzo的安装与配置

LZO压缩,可分块并行处理,解压缩的效率也是可以的. 为了配合部门hadoop平台测试,作者详细的介绍了如何在Hadoop平台下安装lzo所需要软件包:gcc.ant.lzo.lzo编码/解码器并配置lzo的文件:core-site.xml.mapred-site.xml.希望对大家有所帮助.以下是正文: 最近我们部门在测试云计算平台hadoop,我被lzo折腾了三四天,累了个够呛.在此总结一下,也给大家做个参考. 操作系统:CentOS 5.5,Hadoop版本:hadoop-0.20.2-C