hadoop-虚拟机配置与hadoop基本配置

一、虚拟机设置

环境:centos6.4

vmware网络适配器:桥接模式,禁用vmnet8

vim /etc/sysconfig/network-scripts/ifcfg-eth0

网关的设置参考外部机器的默认网关

DEVICE=eth0
TYPE=Ethernet
UUID=57cd273b-3bed-4378-957f-fe1552b5212d
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.1.130
PREFIX=24
GATEWAY=192.168.1.1
DNS1=192.168.1.1
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
NAME="System eth0"
HWADDR=00:0C:29:22:0D:E9
LAST_CONNECT=1540218650

关闭防火墙:service iptables stop,chkconfig iptables off。

确保外部机器和虚拟机能相互ping通,就可以使用xhell操作虚拟机了。

更改hostname:vim /etc/sysconfig/network --> HOSTNAME=hadoop-server-00

配置集群的hosts:vim /etc/hosts

192.168.1.130 hadoop-server-00
192.168.1.131 hadoop-server-01
192.168.1.132 hadoop-server-02

修改下次启动不使用图形界面:vim /etc/inittab --> id:5:initdefault: --> id:3:initdefault:

完成以上操作后重启虚拟机,重启后可能不会自动连接网络,需要手动连接一下:ifup eth0

二、配置jdk

mkdir /usr/local/apps
tar -zxf jdk-8u191-linux-x64.tar.gz -C /usr/local/apps/
vim /etc/profile
export JAVA_HOME=/usr/local/apps/jdk1.8.0_191
export PATH=$PATH:$JAVA_HOME/bin

保存退出后执行 source /etc/profile,并且验证jdk是否配置成功。

三、配置hadoop

下载地址:

http://archive.apache.org/dist/

解压:tar -zxf hadoop-2.4.1.tar.gz -C /usr/local/apps/

进入hadoop的配置目录:/usr/local/apps/hadoop-2.4.1/etc/hadoop

1.修改hadoop的环境信息:vim hadoop-env.sh

export JAVA_HOME=/usr/local/apps/jdk1.8.0_191/

2.修改hadoop运行的公共配置:vim core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop-server-00:9000/</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/apps/hadoop-2.4.1/tmp/</value>
</property>
</configuration>

3.修改hdfs相关的配置:vim hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>

4.修改mapreduce相关配置:mv mapred-site.xml.template mapred-site.xml,vim mapred-site.xml

<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

5.修改yarn相关配置:vim yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop-server-00</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

6.修改从节点:vim slaves,修改其中的localhost为:

hadoop-server-00

四、启动hadoop

1.格式化hdfs:

/usr/local/apps/hadoop-2.4.1/bin
./hadoop namenode -format

2.手动启动hadoop:cd /usr/local/apps/hadoop-2.4.1/sbin/

./hadoop-daemon.sh start namenode

jps查看是否启动。接着启动datanode:

./hadoop-daemon.sh start datanode

启动secondarynamenode:

./hadoop-daemon.sh start secondarynamenode

查看端口:netstat -nltp,其中50070为外部web访问的端口,可以尝试访问一下:http://192.168.1.130:50070

3.启动yarn的进程:cd /usr/local/apps/hadoop-2.4.1/sbin

./yarn-daemon.sh start resourcemanager
./yarn-daemon.sh start nodemanager

五、使用脚本启动

先关闭之前手动启动的进程,然后进入目录:cd /usr/local/apps/hadoop-2.4.1/sbin/

./start-dfs.sh

多次提示输入密码和信任(可以设置ssh信任关系后就不需要输入密码了),完成后使用jps可以看到已经启动了3个进程。

在登录方生成密钥对,然后将公钥复制给目标主机,在目标机器上将公钥加入授权文件:~/.ssh/authorized_keys(该文件权限为600)

1.生成密钥对:ssh-keygen

2.加入目标机器的授权文件:ssh-copy-id hadoop-server-01

在本机生成:ssh-keygen,把公钥传到本机:ssh-copy-id hadoop-server-00,完成后在登录本机(ssh hadoop-server-00)就不需要密码了。

测试使用脚本启动(不需要输入密码),先停止进程:./stop-dfs.sh,jps

./start-dfs.sh,如果还需要密码说明信任关系设置的不对,需要检测。

./start-yarn.sh,启动yarn进程

如果看到5个进程都启动成功了,说明配置ok。

原文地址:https://www.cnblogs.com/wange/p/9833115.html

时间: 2024-11-08 16:33:13

hadoop-虚拟机配置与hadoop基本配置的相关文章

windows环境下的eclipse操作虚拟机里面的hadoop相关配置

当电脑的配置不是很高的时候,在虚拟机里面安装上编译软件进行编程的话,卡的要命,所以总结一下在windows环境下eclipse配置链接虚拟机中的hadoop 在虚拟机中的hadoop要和主机的hadoop要是一样的版本(不知道不一样的版本会不会出现问题,确保成功,用一样的版本是最好的,我这里用的是hadoop2.7.0) 将虚拟机里面的环境配置好以后(虚拟机环境的配置,可见https://www.cnblogs.com/zhaochunhui/p/11451520.html),在window中进

Hadoop多节点集群安装配置

目录: 1.集群部署介绍 1.1 Hadoop简介 1.2 环境说明 1.3 环境配置 1.4 所需软件 2.SSH无密码验证配置 2.1 SSH基本原理和用法 2.2 配置Master无密码登录所有Salve 3.Java环境安装 3.1 安装JDK 3.2 配置环境变量 3.3 验证安装成功 3.4 安装剩余机器 4.Hadoop集群安装 4.1 安装hadoop 4.2 配置hadoop 4.3 启动及验证 4.4 网页查看集群 5.常见问题FAQ   5.1 关于 Warning: $H

hadoop 2.2 第二步 HA zookeeper 配置

第一篇文章还有要修改的地方,现在我的集群已经扩展到5台(虚拟机)有些配置还要改,这一篇记录一下Hadoop HA 和zookeeper的配置,方便自己以后看. 新的HDFS中的NameNode不再是只有一个了,可以有多个(目前只支持2个).每一个都有相同的职能. 在HDFS(HA) 集群中,Standby 节点还执行着对namespace 状态的checkpoint 功能,因此没有必要再运行SecondaryNameNode. 这两个NameNode的地位如何:一个是active状态的,一个是s

Hadoop集群配置心得(低配置集群+自动同步配置)

本文为本人原创,首发到炼数成金 http://f.dataguru.cn/thread-138720-1-1.html. 情况是这样的,我没有一个非常强劲的电脑来搞出一个性能非常NB的服务器集群,相信很多人也跟我差不多,所以现在把我的低配置集群经验拿出来写一下好了. 我的配备:1)五六年前的赛扬单核处理器2G内存笔记本 2)公司给配的ThinkpadT420,i5双核处理器4G内存(可用内存只有3.4G,是因为装的是32位系统的缘故吧...) 就算是用公司配置的电脑,做出来三台1G内存的虚拟机也

debian下 Hadoop 1.0.4 集群配置及运行WordCount

说明:我用的是压缩包安装,不是安装包 官网安装说明:http://hadoop.apache.org/docs/r1.1.2/cluster_setup.html,繁冗,看的眼花...大部分人应该都不是按照这个来的...按照这个做我相信也会碰到各种问题 精简版安装说明:http://www.linuxidc.com/Linux/2013-01/77678.htm 言简,但如果照搬,绝对会遇到一些问题... 接下来记录我遇到的问题: 环境 jdk1.7.0_09 + debian6 32bit +

Ubuntu14.04LTS 下配置Tomcat Hadoop eclipse环境

下在相关软件: (需要根据系统是32位还是64位选择软件的版本:jdk和eclipse.本人机器内存4G,安装64位虚拟机系统非常卡,建议虚拟机安装32位版本,实体机可以安装64位) HADOOP:http://mirrors.hust.edu.cn/apache/hadoop/common/ JDK:  http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html TOMCAT:http:

hadoop 2.5.0安装和配置

安装hadoop要先做以下准备: 1.jdk,安装教程在 http://www.cnblogs.com/stardjyeah/p/4640917.html 2.ssh无密码验证,配置教程在 http://www.cnblogs.com/stardjyeah/p/4641524.html 3.linux静态ip配置,教程在 http://www.cnblogs.com/stardjyeah/p/4640691.html 准备好以后就可以进行hadoop 2.5.0安装和配置了 1)        

Hadoop 2.4.1 登录认证配置小结

1.简单模式 这种模式,配置简单,使用简单. core-site.xml添加 <property> <name>hadoop.security.authorization</name> <value>true</value> </property> <property> <name>hadoop.security.authentication</name> <value>simple&l

eclipse 配置执行hadoop 2.7 程序样例參考步骤

前提:你搭建好了hadoop 2.x的linux环境,并可以成功执行.还有就是window可以訪问到集群.over 1. hfds-site.xml 添加属性:关闭集群的权限校验.windows的用户一般与linux的不一样,直接将它关闭掉好了.记住不是core-site.xml 重新启动集群 <property> <name>dfs.permissions</name> <value>false</value> </property>

Hadoop 配置及hadoop HA 的配置

注:本文中提到的ochadoop 不要感到奇怪,是亚信公司内部自己合成的一个包,把所有的组件都放在一个包内了,免去了组件的下载过程和解决兼容问题,其实也可以自己下载的,不要受到影响. 另,转载请注明出处,谢谢 修改静态IP和hostname 在 /etc/sysconfig/network-scripts/ifcfg-eth0配置IPADDR地址 运行以下命令生效 service network restart 在/etc/sysconfig/network中配置hostname配置完成后重启生