1、Hadoop启动或停止
1)第一种方式
分别启动 HDFS 和 MapReduce,命令如下:
启动:
$ start-dfs.sh
$ start-mapred.sh
停止:
$ stop-mapred.sh
$ start-dfs.sh
2)第二方式
全部启动或者全部停止
启动:start-all.sh
启动顺序:NameNode、DataNode、SecondaryNameNode、JobTracker、TaskTracker
停止:stop-all.sh
停止顺序:JobTracker、TaskTracker、NameNode、DataNode、SecondaryNameNode
3)第三种启动方式
每个守护进行逐一进行启动,启动顺序如下:
NameNode、DataNode、SecondaryNameNode、JobTracker、TaskTracker
命令如下:
启动:
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
停止:
hadoop-daemon.sh stop jobtracker
hadoop-daemon.sh stop tasktracker
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop secondarynamenode
2、分析启动Shell脚本
1)查看start-all.sh脚本:
第一点:,此Shell脚本,仅仅在主节点上执行。
第二点:首先启动DFS文件系统的守护进程,再启动MapReduce框架的守护进程
第三点:启动HDFS文件系统守护进程时,调用start-dfs.shShell脚本;启动MapReduce守护进程时,调用start-mapred.shShell脚本。
2)查看start-dfs.sh脚本:
第一点:此脚本运行在DFS文件系统的主节点上。
第二点:如果先启动DataNode守护进程,在没有启动NameNode守护进程之前,DataNode日志文件一直出现连接NameNode错误信息。
第三点:启动HDFS守护进程的顺序
第四点:NameNode启动,调用的是hadoop-daemon.sh脚本;
DataNode和SecondaryNameNode启动调用的是hadoop-daemons.sh脚本。