启动hadoop
1.start-all.sh
可以看到这个脚本包含两个部分,start-dfs.sh和start-mapred.sh
2.start-dfs.sh包含
"$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs start namenode $nameStartOpt
"$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs start datanode $dataStartOpt
"$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters --script "$bin"/hdfs start secondarynamenode
start-mapred.sh包含
"$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred start jobtracker
"$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred start tasktracker
可见namenode 和 jobtracker通过hadoop-daemon.sh启动,datanode,secondarynamenode,tasktracker 通过hadoop-daemons.sh启动.
3.hadoop-daemons.sh
由这个脚本可以看到其中启动slaves.sh和hadoop-daemon.sh
4.hdfs.sh和mapred.sh
最后一行代码都是
exec "$JAVA" $JAVA_HEAP_MAX $HADOOP_OPTS $CLASS "[email protected]"
这个就是真正的启动命令了。就是常见的java程序启动了,入口方法为java中的main 函数.
这里启动了NameNode,DataNode,SecondaryNameNode,JobTracker,TaskTracker.
停止hadoop
1.stop-all.sh
可以看到这个脚本也包含两个部分,stop-dfs.sh和stop-mapred.sh
2.stop-dfs.sh包含
"$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs stop namenode
"$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/hdfs stop datanode
"$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --hosts masters --script "$bin"/hdfs stop secondarynamenode
stop-mapred.sh包含
"$HADOOP_COMMON_HOME"/bin/hadoop-daemon.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred stop jobtracker
"$HADOOP_COMMON_HOME"/bin/hadoop-daemons.sh --config $HADOOP_CONF_DIR --script "$bin"/mapred stop tasktracker
3.分析hadoop-daemon.sh,其中包含 kill `cat $pid` ,程序通过kill命令来杀死进程号,达到停止hadoop的目的.