CentOS7.4下部署hadoop3.1.1
契机
由于工作原因要部署hadoop的集群,习惯使用最新的稳定版本2018年的时候由于时间紧破部署了2.7.2版本,最新由于又要部署有研究了一下3.x的部署.这次
研究通了,在这里记录一下,防止以往.
本次部署的是一个可用的集群,不是高可用的,因为高可用的hadoop还要部署zookeeper和ha,搞可用的hadoop以后有需要再研究.
准备工作
规划
软件
软件 | 版本 | 位数 | 说明 |
---|---|---|---|
Jdk | Jdk1.8 | 64位 | 稳定版本 |
Centos | Centos7.4 | 64位 | 稳定版本 |
Hadoop | Hadoop | 3.1.1 | 最新版本 |
Zookeeper | 3.4.6 | 稳定版本 |
数据目录
目录名称 | 绝对路径 |
---|---|
目录名称 | 绝对路径 |
所有软件存放目录 | /home/hadoop3/app |
datanode目录 | /home/hadoop3/data |
namenode目录 | /home/hadoop3/name |
tmp目录 | /home/hadoop3/tmp |
jdk目录 | /usr/local/opt/java |
关闭防火墙
- systemctl stop firewalld -> 关闭防火墙
- systemctl disable firewalld -> 开机不启动防火墙
- systemctl status firewalld -> 开机不启动防火墙
关闭selinux
打开文件/etc/selinux/config,修改文件内容
SELinux=enforing -> SELINUX=disabled
开启ntp 时间同步服务
- systemctl stop ntpd
如果是在局域网内可以用一台机器为时间同步的主服务器,其他机器使用主服务的时间同步本机时间,设置方法参考下文
新建账户
通常由于安全的考虑我们不会把hadoop部署到root账户下,新建用户名为hadoop3的用户
- adduser hadoop3 ->新增用户
- passwd hadoop3 ->设置hadoop3的用户密码
- groupmod -g 2000 hadoop3 -> adduser命令会新增同名group,更改所有集群hadoop3组的groupid为一样的值
修改机器名
以namenode的机器为例
使用hostnamectl -set-hostname m1.hadoop
修改 /etc/hosts 增加
x.x.x.1 m1.hadoop m1
x.x.x.1 s1.hadoop s1
x.x.x.1 s2.hadoop s2
修改 /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=m1.hadoop
ssh免密登录
在hadoop3账户下
- ssh-keygen 生成公钥和私钥过程中需要敲两次Enter,不要要输入任何内容
- ssh-copy-id [email protected]
- 选一台机器,所有其他节点声场秘钥后用ssh-copy-id将公钥拷贝到这台机器
- 使用 scp /home/hadoop3/.ssh/authoried_keys [email protected]:/home/hadoop3/.ssh/ 将记录公钥的文件拷贝的所有节点,这样所有节点都配置好免密登录了
ntp局域网时间同步
参考地址: http://blog.51cto.com/xu20cn/69689
假定时钟服务器IP地址为:192.168.0.1
服务器端配置
- 置/etc/ntp.conf文件内容为:
server 127.127.1.0 minpoll 4
fudge 127.127.1.0 stratum 1
restrict 127.0.0.1
restrict 192.168.0.0 mask 255.255.255.0 nomodify notrap
driftfile /var/lib/ntp/drift - /etc/ntp/ntpservers应置空
- /etc/ntp/step-tickers应配置为 127.127.1.0
上述修改完成后,以root用户身份重启ntpd服务:systemctl restart ntpd 即可
客户端配置
- 置/etc/ntp.conf文件内容为:
server 192.168.0.1
fudge 127.127.1.0 stratum 2
restrict 127.0.0.1
driftfile /var/lib/ntp/drift
restrict 192.168.0.1 mask 255.255.255.255 - /etc/ntp/ntpservers 文件内容置空
- /etc/ntp/step-tickers文件内容置为时钟服务器IP地址 192.168.0.1
上诉修改完成后,以root用户身份重启ntpd服务:systemctl restart ntpd 即可
用户可用以下两个常用命令查看ntpd服务状态:
1 ntpq -p
2 ntpstat
linux下ntpd安装配置笔记
概述: ntp能与互联网上的时钟保持同步,而且本身也是一台NTP服务器,可以为局域网电脑提供校对时间服务
安装: redhat自带
配置文件: /etc/ntp.conf
附:我的配置文件
#restrict default ignore
restrict 127.0.0.1
restrict 192.168.3.20
restrict 192.168.0.0 mask 255.255.255.0
restrict 192.168.2.0 mask 255.255.255.0
restrict 192.168.4.0 mask 255.255.255.0
server 210.72.145.44 prefer #National Time Service Center
server 195.13.1.153
server 194.137.39.67
server 127.127.1.0 # local clock
restrict 210.72.145.44
restrict 195.13.1.153
restrict 194.137.39.67
driftfile /var/lib/ntp/drift
附:相关配置参数说明
- restrict权限控制语法为:
- restrict IP mask netmask_IP parameter
- 其中 IP 可以是软件地址,也可以是 default ,default 就类似 0.0.0.0 咯!
- 至于 paramter 则有:
- ignore :关闭所有的 NTP 联机服务
- nomodify:表示 Client 端不能更改 Server 端的时间参数,不过,
- Client 端仍然可以透过 Server 端来进行网络校时。
- notrust :该 Client 除非通过认证,否则该 Client 来源将被视为不信任网域
- noquery :不提供 Client 端的时间查询
- 如果 paramter 完全没有设定,那就表示该 IP (或网域) 『没有任何限制!』
- 设定上层主机主要以 server这个参数来设定,语法为:
- server [IP|FQDN] [prefer]
- Server 后面接的就是我们上层 Time Server 啰!而如果 Server 参数
- 后面加上 perfer 的话,那表示我们的 NTP 主机主要以该部主机来作为
- 时间校正的对应。另外,为了解决更新时间封包的传送延迟动作
让FreeBSD使用ntpd同步时间
我们知道ntpd是一种在后台运行可以使用远程时间服务器的进程,它可以让你的服务器时间准确而不会影响系统的正常。
首先修改/etc/rc.conf添加ntpd_enable="YES"到最后一行。然后vi /etc/ntp.conf
添加:
server 210.72.145.44 prefer
server 159.226.154.47
server 127.127.1.0
fudge 127.127.0.1 stratum 5
restrict default ignore
restrict 127.0.0.0 mask 255.0.0.0
restrict 192.168.0.0 mask 255.255.255.0 noquery nopeer notrust
restrict 210.72.145.44 noquery
restrict 159.226.154.47 noquery
driftfile /var/db/ntpd.drift
其中server 210.72.145.44 prefer、server 159.226.154.47、restrict 210.72.145.44 noquery、restrict 159.226.154.47 noquery可以改成其他离你最近或最准确的时间服务器。
这样在服务器重启后ntpd进程就会自动在后台运行,帮助系统同步时间,和在192.168.0这个网段内做一台时间服务器。
安装jdk
下载jdk 下载网页 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 安装包名字类似 jdk-8u191-linux-x64.tar.gz
部署和分发hadoop程序
下载 hadoop-3.1.1.tar.gz 下载网页 https://hadoop.apache.org/releases.html
使用 tar -zxvf hadoop-3.1.1.tar.gz 解压hadoop,
3.x的hdfs的默认端口号是9870和2.x的50070不同
core-site.xml
在hadoop解压目录 etc/hadoop/目录下
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://m1.hadoop:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop3/tmp</value>
</property>
<!-- httpfs 设置-->
<property>
<name>hadoop.proxyuser.hadoop3.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hadoop3.groups</name>
<value>*</value>
</property>
</configuration>
hdfs-site.xml
在hadoop解压目录 etc/hadoop/目录下
<configuration>
<!--Configurations for NameNode-->
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop3/name</value>
</property>
<property>
<name>dfs.hosts</name>
<value></value>
</property>
<property>
<name>dfs.blocksize</name>
<value>268435456</value>
</property>
<property>
<name>dfs.namenode.handler.count</name>
<value>100</value>
</property>
<!--Configurations for DataNode-->
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop3/data</value>
</property>
</configuration>
yarn-size.xml
在hadoop解压目录 etc/hadoop/目录下
<configuration>
<!-- Site specific YARN configuration properties -->
<!-- Configurations for ResourceManager and NodeManager -->
<property>
<name>yarn.acl.enable</name>
<value>false</value>
</property>
<property>
<name>yarn.admin.acl</name>
<value>*</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>false</value>
</property>
<!--Configurations for ResourceManager-->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>m1.hadoop</value>
</property>
<property>
<name>yarn.scheduler.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
</property>
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>256</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>4096</value>
</property>
<!--Configurations for Manager-->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.env-whitelist</name>
<value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
</configuration>
hadoop-env.sh
修改了这个文件,就不需要修改 /etc/profile的配置文件来修改环境变量了
在hadoop解压目录 etc/hadoop/目录下
# The java implementation to use. By default, this environment
# variable is REQUIRED on ALL platforms except OS X!
# export JAVA_HOME=
export JAVA_HOME=/usr/local/opt/java/jdk1.8.0_191
# Location of Hadoop. By default, Hadoop will attempt to determine
# this location based upon its execution path.
# export HADOOP_HOME=
export HADOOP_HOME=/home/hadoop3/app/hadoop-3.1.1
启动dfs
在hadoop的部署目录下的sbin目录执行
start-dfs.sh
查看dfs的状态: http://x.x.x.x:9870/
使用jps查看状态(jps需要将jdk目录设置到环境变量)
20401 SecondaryNameNode
20993 HttpFSServerWebServer
20082 NameNode
20636 ResourceManager
27533 Jps
启动httpfs代理
在hadoop的部署目录下的sbin目录执行
httpfs.sh start
启动yarn
在hadoop的部署目录下的sbin目录执行
start-yarn.sh
查看yarn的状态: http://x.x.x.x:8088/
原文地址:https://www.cnblogs.com/xueye9/p/10320877.html