Hadoop记录-Linux Service

[Unit]
Description=Datanode
After=syslog.target network.target auditd.service sshd.service datanode_precheck.service
Requires=datanode_precheck.service

[Service]
User=hdfs
Group=hdfs
Type=forking
Slice=hadoop.slice
LimitNOFILE=524288
Environment=CLASSPATH=/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:.:/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:
Environment=HADOOP_COMMON_HOME=/app/hadoop
Environment=HADOOP_CONF_DIR=/app/hadoop-conf
Environment=HADOOP_HDFS_HOME=/app/hadoop
Environment=HADOOP_HOME=/app/hadoop
Environment=HADOOP_LOG_DIR=/log/hadoop
Environment=HADOOP_MAPRED_HOME=/app/hadoop
Environment=HADOOP_MAPRED_LOG_DIR=/log/yarn
Environment=HADOOP_MAPRED_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_YARN_HOME=/app/hadoop
Environment=HIVE_HOME=/app/hive
Environment=JAVA_HOME=/app/jdk/jdk1.8.0_92
Environment=LANG=en_US.UTF-8
Environment=PATH=/app/anaconda2/bin:/app/hive/bin:/app/hadoop/sbin:/app/hadoop/bin:/app/jdk/jdk1.8.0_92/bin:/app/jdk/jdk1.8.0_92/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/yarn/.local/bin:/home/yarn/bin
Environment=USER_PROFILE=/app/pylibs/user-profile/install/lib/python2.7/site-packages
Environment=YARN_CONF_DIR=/app/hadoop-conf
Environment=YARN_LOG_DIR=/log/yarn
Environment=YARN_PID_DIR=/app/hadoop/tmp

ExecStart=/bin/sh -c "exec hadoop-daemon.sh start datanode"
ExecStop=/bin/sh -c "exec hadoop-daemon.sh stop datanode"

[Install]
WantedBy=default.target
[Unit]
Description=Nodemanager
After=syslog.target network.target auditd.service sshd.service datanode.service datanode_precheck.service
Requires=datanode_precheck.service

[Service]
User=yarn
Group=yarn
Type=forking
Slice=hadoop.slice
LimitNOFILE=524288
Environment=CLASSPATH=/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:.:/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:
Environment=HADOOP_COMMON_HOME=/app/hadoop
Environment=HADOOP_CONF_DIR=/app/hadoop-conf
Environment=HADOOP_HDFS_HOME=/app/hadoop
Environment=HADOOP_HOME=/app/hadoop
Environment=HADOOP_LOG_DIR=/log/hadoop
Environment=HADOOP_MAPRED_HOME=/app/hadoop
Environment=HADOOP_MAPRED_LOG_DIR=/log/yarn
Environment=HADOOP_MAPRED_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_YARN_HOME=/app/hadoop
Environment=HIVE_HOME=/app/hive
Environment=JAVA_HOME=/app/jdk/jdk1.8.0_92
Environment=LANG=en_US.UTF-8
Environment=PATH=/app/anaconda2/bin:/app/hive/bin:/app/hadoop/sbin:/app/hadoop/bin:/app/jdk/jdk1.8.0_92/bin:/app/jdk/jdk1.8.0_92/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/yarn/.local/bin:/home/yarn/bin
Environment=USER_PROFILE=/app/pylibs/user-profile/install/lib/python2.7/site-packages
Environment=YARN_CONF_DIR=/app/hadoop-conf
Environment=YARN_LOG_DIR=/log/yarn
Environment=YARN_PID_DIR=/app/hadoop/tmp

ExecStart=/bin/sh -c "exec yarn-daemon.sh start nodemanager"
ExecStop=/bin/sh -c "exec yarn-daemon.sh stop nodemanager"

[Install]
WantedBy=default.target

原文地址:https://www.cnblogs.com/xinfang520/p/10570526.html

时间: 2024-11-15 07:15:39

Hadoop记录-Linux Service的相关文章

hadoop之linux常用命令

Linux的命令后面会有命令选项,有的选项还有选项值.选项的前面有短横线“-”,命令.选项.选项值之间使用空格隔开.有的命令没有选项,会有参数.选项是命令内置的功能,参数是用户提供的符合命令格式的内容. 1.1.1.           命令提示符 在桌面上点击鼠标右键,在弹出菜单中选择“Open in Terminal”, 系统会打开终端,类似于Windows下的命令行.Windows的命令行是dos环境,Linux下的命令行是shell环境.我们的所有命令都是在shell下运行的,后面所有章

hadoop的linux配置

一.新建hadoop组跟用户(密码:hadoop) [[email protected] home]# groupadd hadoop [[email protected] home]# useradd -g hadoop hadoop [[email protected] home]# passwd hadoop Changing password for user hadoop. New password: BAD PASSWORD: it is based on a dictionary

菜鸟的成长记录--linux基础命令

以下是我学习时接触的命令,后续会慢慢添加 1.tty:查看终端类型 虚拟终端:/dev/tty# 伪终端:/dev/pts/# 控制台:/dev/console 串行终端:/dev/ttyS# 2.startx:启动图形界面 3.ifconfig:查看网卡信息 4.cd:进入用户主目录 cd ~:进入用户主目录 cd ~USERNAME:进入其他用户主目录 cd -:在前一个目录和当前目录来回切换 cd .:当前目录 cd ..:上一级目录 cd ../..:返回上两级目录 cd !$:把上一个

记录Linux启动流程的工具bootchart

/*********************************************************************  * Author  : Samson  * Date    : 04/28/2014  * Test platform:  *              3.11.0-12-generic #19-Ubuntu  *              GNU bash, version 4.2.45  * ****************************

hadoop记录topk

[email protected]:~/hadoop-1.0.1/bin$ ./hadoop jar ~/hadoop-1.0.1/to.jar top.Top input output 14/05/12 03:44:37 WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments. Applications should implement Tool for the same. ****hdfs://loc

通过登入IP记录Linux所有用户登录所操作的日志

通过登入IP记录Linux所有用户登录所操作的日志 对于Linux用户操作记录一般通过命令history来查看历史记录,但是如果在由于误操作而删除了重要的数据的情况下,history命令就不会有什么作用了.那么依然要存有历史操作记录应该如何来实现呢?其实我们可以通过登陆IP地址来记录所有用户登录所操作的历史操作!具体操作就是在/etc/profile配置文件的末尾加入以下脚本代码来实现: # History USER=`whoami` USER_IP=`who -u am i 2>/dev/nu

linux service等命令不能使用的解决办法

主要是路径没添加进来: 在shell里面输入这条命令:export PATH=$PATH:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/opt/bin:/usr/i686-pc-linux-gnu/gcc-bin/4.1.2:/usr/kde/3.5/sbin:/usr/kde/3.5/bin:/usr/qt/3/bin 注意:中间没有换行! linux service等命令不能使用的解决办法

菜鸟的成长记录--linux 通配符和特殊字符集合的使用

通配符 当需要用命令查询所需要的结果时,用户不必全部查出一个一个找,可以使用Shell通配符.Shell命令的通配符含义如下表 符号 含义 实例 * 任意长度的任意字符 a*b,匹配如a3b.acb.aabc.a/b.a123,/b. ? 匹配任意单字符 a?b,匹配如a1b.acb.a,b [ ] 匹配指定范围内的任意字符 a[xyz]b,匹配如axb.ayb.azb [ - ] 匹配任意一个字符范围 a[a-z]b,匹配如ayb.acb.adb.aub [^...] 除了指定的字符,均可匹配

菜鸟的成长记录--linux正则表达式及grep

正则表达式 是一类字符所书写的模式,其中许多字符不表示其字面意义,而是表达控制或通配等功能:正则表达式使用单个字符串来描述.匹配一系列符合某个句法规则的字符串.在很多文本编辑器里,正则表达式通常被用来检索.替换那些符合某个模式的文本. 元字符:不表示其字面意义,而用于额外功能性描述,下面是常用的元字符列表 符号 含义 . 表示匹配任意单个字符,例a.,匹配ab.ac.ad.ax * 表示它前面的字符可以出现任意次,例a*b,匹配aab.b.ab \? 表示它前面的字符可有可无,例a\?b,匹配a