一、前期准备
1、配置ip
进入文件编辑模式:
vim /etc/sysconfig/network-scripts/ifcfg-ens192
原内容:
TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=dhcp DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=ens192 UUID=f384ed85-2e1e-4087-9f53-81afd746f459 DEVICE=ens192 ONBOOT=no
修改后内容:
TYPE=Ethernet PROXY_METHOD=none BROWSER_ONLY=no BOOTPROTO=static DEFROUTE=yes IPV4_FAILURE_FATAL=no IPV6INIT=yes IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_FAILURE_FATAL=no IPV6_ADDR_GEN_MODE=stable-privacy NAME=ens192 UUID=f384ed85-2e1e-4087-9f53-81afd746f459 DEVICE=ens192 ONBOOT=yes IPADDR=192.168.0.214 NETMASK=255.255.255.0 GATEWAY=192.168.0.1 DNS=183.***.***.100
重启网络使之生效
service network restart
用CRT进行登录
2、修改hostname
# 查看 hostname # 修改 hostnamectl set-hostname ‘hbase3‘
3、映射hostname
vi /etc/hosts
添加红框栏:
4、联网
方便yum下载安装包或者安装一些命令,就必须联网:
#检查是否联网: ping: www.baidu.com: Name or service not known说明未联网 #配置/etc/resolv.conf vi /etc/resolv.conf #添加以下内容: 这里的ip与第1步的DNS后面的ip相同 nameserver 183.***.***.100 #验证:PING www.a.shifen.com (39.156.66.18) 56(84) bytes of data. 说明联网成功 ping www.baidu.com
5、安装vim
yum install -y vim
6、下载准备安装包
我在/opt/soft分别准备以下安装包:点击链接可以卡查看并下载最新版本
jdk: jdk-8u191-linux-x64.tar.gz
hadoop: hadoop-3.1.2.tar.gz
hbase: hbase-2.1.4-bin.tar.gz
opentsdb:opentsdb-2.4.0.tar.gz
二、开始安装
1、安装jdk
由于要安装的hadoop、zookeeper、habse、opentsdb都是java语言开发的,故首先需要安装jdk。
#进入到安装包所在路径 cd /opt/soft/jdk #解压安装包 tar -zxvf jdk-8u191-linux-x64.tar.gz #配置环境变量 vim /etc/profile #在/etc/profile最后添加内容 export JAVA_HOME=/opt/soft/jdk/jdk1.8.0_191 export PATH=$PATH:$JAVA_HOME/bin #使环境变量生效 source /etc/profile #验证 java -version
验证时出现如截图内容则说明安装成功
2、安装hadoop
【1】安装
#进入到安装包所在路径 cd /opt/soft/hadoop #解压安装包 tar -zxvf hadoop-3.1.2.tar.gz #配置环境变量 vim /etc/profile #在/etc/profile添加JAVA_HOME的后面继续添加 綠色部分 export HADOOP_HOME=/opt/soft/hadoop/hadoop-3.1.2 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib:$HADOOP_COMMON_LIB_NATIVE_DIR"
#使环境变量生效 source /etc/profile #验证:不报-bash: hadoop: command not found则说明成功 hadoop fs -ls
【1】安装
原文地址:https://www.cnblogs.com/yybrhr/p/11128149.html
时间: 2024-11-06 11:37:05