cloudera vm 5.4.2 如何启动hadoop各项服务
1. 安装位置
/usr/lib
hadoop
spark
Hbase
hive
impala
mahout
2.自动启动
第一个进程 init , 读取 inittab ->runlevel 5
启动第六步--init进程执行rc.sysinit
在设定了运行等级后,Linux系统执行的第一个用户层文件就是/etc/rc.d/rc.sysinit脚本程序,它做的工作非常多,包括设定PATH、设定网络配置(/etc/sysconfig/network)、启动swap分区、设定/proc等等。
启动第七步--启动内核模块
具体是依据/etc/modules.conf文件或/etc/modules.d目录下的文件来装载内核模块。
启动第八步--执行不同运行级别的脚本程序
根据运行级别的不同,系统会运行rc0.d到rc6.d中的相应的脚本程序,来完成相应的初始化工作和启动相应的服务。
启动第九步--执行/etc/rc.d/rc.local
rc.local就是在一切初始化工作后,Linux留给用户进行个性化的地方。你可以把你想设置和启动的东西放到这里。
3. rc5.d 启动cloudera的各项服务
hadoop spark的各项服务都在这里,随机启动。
每个链接的名字都是以S或者K开头的,S开头的表示是系统启动是要随机启动的,K开头的是不随机启动的。
如果我要哪个服务随机启动,就把它名字第一个字母K改成S就可以了,当然,把S改成K后,这个服务就不能随机启动了。
参考:
1, Linux启动过程详解 , http://blog.chinaunix.net/uid-26495963-id-3066282.html
2, [原创]Linux系统启动过程分析 , http://blog.chinaunix.net/uid-23069658-id-3142047.html
3, Linux 的启动流程, http://www.ruanyifeng.com/blog/2013/08/linux_boot_process.html