hadoop生态搭建(3节点)-01.基础配置

# 基础配置
# ==================================================================node1

vi /etc/hostname
node1

vi /etc/sysconfig/network-scripts/ifcfg-ens33
# BOOTPROTO=dhcp
BOOTPROTO=static
# ONBOOT=no
ONBOOT=yes
IPADDR=192.168.6.131
NETMASK=255.255.255.0
GATEWAY=192.168.6.2
DNS1=192.168.6.2

# 重启下网络服务
systemctl restart network.service
# service network restart

# 查看网络状态
systemctl status network.service

# 查看IP
ip addr

# 直接关闭防火墙
# 停止firewall
systemctl stop firewalld.service

# 禁止 firewall 开机启动
systemctl disable firewalld.service

reboot

# ==================================================================node1

# 配置hosts
vi /etc/hosts192.168.6.131 node1
192.168.6.132 node2
192.168.6.133 node3

# 关闭SELinux
vi /etc/sysconfig/selinux
SELINUX=disabled

vi /etc/ssh/sshd_config
#RSAAuthentication yes #启用 RSA 认证
#PubkeyAuthentication yes #启用公钥私钥配对认证方式
#AuthorizedKeysFile .ssh/authorized_keys #公钥文件路径(和上面生成的文件同)

systemctl restart sshd.service
# service sshd restart

# network
vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=node1

# 需将Windows文件上传到虚拟机中需配置
# C:\Windows\System32\drivers\etc 在host文件中加入对应ip与机器名
192.168.6.131 node1
192.168.6.132 node2
192.168.6.133 node3

shutdown -h now
# 快照 初始化
# 克隆 node2 node3

# ==================================================================node2

vi /etc/hostname
node2

vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=node2

vi /etc/sysconfig/network-scripts/ifcfg-ens33
# BOOTPROTO=dhcp
BOOTPROTO=static
# ONBOOT=no
ONBOOT=yes
IPADDR=192.168.6.132
NETMASK=255.255.255.0
GATEWAY=192.168.6.2
DNS1=192.168.6.2

systemctl restart network.service

shutdown -h now
# 快照 初始化

# ==================================================================node3

vi /etc/hostname
node3

vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=node3

vi /etc/sysconfig/network-scripts/ifcfg-ens33
# BOOTPROTO=dhcp
BOOTPROTO=static
# ONBOOT=no
ONBOOT=yes
IPADDR=192.168.6.133
NETMASK=255.255.255.0
GATEWAY=192.168.6.2
DNS1=192.168.6.2

systemctl restart network.service

shutdown -h now
# 快照 初始化

原文地址:https://www.cnblogs.com/zcf5522/p/9753480.html

时间: 2024-10-06 18:04:00

hadoop生态搭建(3节点)-01.基础配置的相关文章

从零开始搭建系统3.6——基础配置组件开发

从零开始搭建系统3.6--基础配置组件开发 原文地址:https://www.cnblogs.com/provence666/p/8638604.html

hadoop生态搭建(3节点)-04.hadoop配置

如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-archive-javase8-2177648.html # ==================================================================安装 jdk mkdir -p /usr/java tar -zxvf ~/jdk-8u111-linux-x64

hadoop生态搭建(3节点)-10.spark配置

# https://www.scala-lang.org/download/2.12.4.html# ==================================================================安装 scala tar -zxvf ~/scala-2.12.4.tgz -C /usr/local rm –r ~/scala-2.12.4.tgz # http://archive.apache.org/dist/spark/spark-2.3.0/ # ==

hadoop生态搭建(3节点)-13.mongodb配置

# 13.mongodb配置_副本集_认证授权# ==================================================================安装 mongodb tar -zxvf ~/mongodb-linux-x86_64-rhel70-3.4.5.tgz -C /usr/local mv /usr/local/mongodb-linux-x86_64-rhel70-3.4.5 /usr/local/mongodb-3.4.5 rm -r ~/mon

hadoop生态搭建(3节点)-06.hbase配置

# http://archive.apache.org/dist/hbase/1.2.4/ # ==================================================================安装 hbase tar -zxvf ~/hbase-1.2.4-bin.tar.gz -C /usr/local rm –r ~/hbase-1.2.4-bin.tar.gz # 配置环境变量# =====================================

hadoop生态搭建(3节点)-07.hive配置

# http://archive.apache.org/dist/hive/hive-2.1.1/ # ==================================================================安装 hive tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/local mv /usr/local/apache-hive-2.1.1-bin /usr/local/hive-2.1.1 rm –r ~/apach

hadoop生态搭建(3节点)-12.rabbitmq配置

# 安装 需要相关包# ==================================================================node1 node2 node3 yum install -y gcc gcc-c++ zlib zlin-devel perl ncurses-devel # 安装 openssl# ==================================================================node1 scp -r

hadoop生态搭建(3节点)-17.sqoop配置_单节点

# ==================================================================安装 sqoop tar -zxvf ~/sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz mv ~/sqoop-1.4.7.bin__hadoop-2.6.0 /usr/local/sqoop-1.4.7 # 环境变量 # =========================================================

hadoop生态搭建(3节点)-05.mysql配置_单节点

# ==================================================================node1 # ==================================================================安装 mysql # 查看当前安装的mariadb包 rpm -qa | grep mariadb # 有就将它们统统强制性卸载掉: rpm -e --nodeps mariadb-libs-5.5.52-1.el7