大数据平台HDP-2.6.4安装与配置

大数据平台HDP-2.6.4 安装 与配置

标签(空格分隔): 大数据平台构建


  • 一: 关于HDP的介绍
  • 二: 系统环境介绍
  • 三: 系统环境初始化
  • 四: 安装HDP-2.6.4平台
  • 五: 启用NameNode HA 与 YARN HA

一:关于HDP的介绍

1.1:hdp 是什么

HDP全称叫做Hortonworks Data Platform。

  Hortonworks数据平台是一款基于Apache Hadoop的是开源数据平台,提供大数据云存储,大数据处理和分析等服务。该平台是专门用来应对多来源和多格式的数据,并使其处理起来能变成简单、更有成本效益。HDP还提供了一个开放,稳定和高度可扩展的平台,使得更容易地集成Apache Hadoop的数据流业务与现有的数据架构。该平台包括各种的Apache Hadoop项目以及Hadoop分布式文件系统(HDFS)、MapReduce、Pig、Hive、HBase、Zookeeper和其他各种组件,使Hadoop的平台更易于管理,更加具有开放性以及可扩展性。

  官网地址为:http://zh.hortonworks.com/

1.2 hdp 的封装的大数据平台组件

二: 系统环境介绍

2.1:系统主机名

系统: RHEL7.5 X64
---
172.17.100.11   ZY-001.flyfish
172.17.100.12   ZY-002.flyfish
172.17.100.13   ZY-003.flyfish
---

2.2: 安装整体步骤

1.集群服务器配置,包括安装操作系统、关闭防火墙、同步服务器时钟等;
2.外部数据库安装
3.安装Ambari管理器;
4.安装HDP集群;
5.集群完整性检查,包括 HDFS 文件系统、MapReduce、Hive 等是否可以正常运行。

三:系统环境初始化

3.1:无密钥登录配置

做root用户无密钥认证

 ssh-keygen ---一直敲回车到最后

 cat id_rsa.pub >> authorized_keys 

 将所有的公钥导入authorized_keys  分发到 所有的 机器的.ssh/ 下面

 然后测试

3.2: 关闭 firewalld,iptables 与 selinux

 yum install -y firewall* iptable* 

  (1) 关闭firewalld

 systemctl stop firewalld.service
 systemctl disable firewalld.service
 firewall-cmd --state

 (2) 关闭iptables
 iptables -F
 systemctl stop iptables.service
 service iptables save
 systemctl disable iptables.service 

 (3) 禁用 selinux 

  sed -i ‘/SELINUX/s/enforcing/disabled/‘ /etc/selinux/config
  setenforce 0
  getenforce 0
  sestatus

  重启机器

  reboot

3.3 所有机器更改centos7.5x64的文件句柄数

vim /etc/security/limits.conf
---
*               soft    nofile          65535
*               hard    nofile          1029345
*               soft    nproc           unlimited
*               hard    nproc           unlimited
*               soft    memlock         unlimited
*               hard    memlock         unlimited
---

3.4 生产环境配置chrony 时间同步服务器

所有机器 yum install chrony*
1. ZY-001.flyfish:

vim /etc/chrony.conf 增加
----
注释掉相关默认的server
server ntp1.aliyun.com iburst

allow 172.17.100.0.0/16

service chronyd start
chkconfig chronyd on 

2. ZY-002.flyfish---ZY-003.flyfish 同步node-01.flyfish

vim /etc/chrony.conf
----
注释掉默认的server
server 172.17.100.21 iburst
----

service chronyd stop
service chronyd start
chkconfig chronyd on


3.5: hdp 所需软件下载

ambari-2.6.1.5-centos7.tar.gz 

下载地址:
http://public-repo-1.hortonworks.com/ambari/centos7/2.x/updates/2.6.1.5/ambari-2.6.1.5-centos7.tar.gz

HDP-2.6.4.0-centos7-rpm.tar.gz
下载地址:
http://public-repo-1.hortonworks.com/HDP/centos7/2.x/updates/2.6.3.0/HDP-2.6.4.0-centos7-rpm.tar.gz

HDP-UTILS-1.1.0.22-centos7.tar.gz

下载地址:

http://public-repo-1.hortonworks.com/HDP-UTILS-1.1.0.21/repos/centos7/HDP-UTILS-1.1.0.22-centos7.tar.gz

关于 ambari-2.6.1的docs

https://docs.hortonworks.com/HDPDocuments/Ambari-2.6.1.5/bk_ambari-installation/content/hdp_26_repositories.html

3.6 安装jdk1.8.162

tar -zxvf jdk-8u162-linux-x64.tar.gz 

mkdir /training

mv jdk1.8.0_162 /training
cd /training
ln -s jdk1.8.0_162 jdk
vim /etc/profile
---
export JAVA_HOME=/training/jdk
export CLASSPATH=.:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
---
source /etc/profile 

java -version

四: 安装 hdp2.6.4

4.1 : 配置ambari所需安装源

安装httpd 

yum install -y httpd

service httpd start

chkconfig httpd on

cd /var/www/html/

mkdir ambari 

1. ambari 的 yum源

cd /root/hdp
tar -zxvf ambari-2.6.1.5-centos7.tar.gz
mv /root/hdp/ambari /var/www/html/ambari

cd /var/www/html/ambari/ambari/centos7/2.6.1.5-3
cp -p ambari.repo /etc/yum.repos.d/

cd /etc/yum.repos.d

vim ambari.repo

----
#VERSION_NUMBER=2.6.1.5-3
[ambari-2.6.1.5]
name=ambari Version - ambari-2.6.1.5
baseurl=http://172.17.100.21/ambari/ambari/centos7/2.6.1.5-3
gpgcheck=1
gpgkey=http://172.17.100.21/ambari/ambari/centos7/2.6.1.5-3/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
----

4.2 配置hdp和hdp-utils 的源

cd /root/hdp

tar -zxvf HDP-2.6.4.0-centos7-rpm.tar.gz

mv HDP /var/www/html/ambari

cd /var/www/html/ambari/HDP/centos7/2.6.4.0-91/

cp -p hdp.repo /etc/yum.repos.d/

cd /root/hdp

mkdir HDP-UTILS

tar -zxvf HDP-UTILS-1.1.0.22-centos7.tar.gz -C HDP-UTILS

mv HDP-UTILS /var/www/html/ambari/ 

cd /etc/yum.repos.d/

vim hdp.repo

---
#VERSION_NUMBER=2.6.4.0-91
[HDP-2.6.4.0]
name=HDP Version - HDP-2.6.4.0
baseurl=http://172.17.100.21/ambari/HDP/centos7/2.6.4.0-91/
gpgcheck=1
gpgkey=http://172.17.100.21/ambari/HDP/centos7/2.6.4.0-91/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1

[HDP-UTILS-1.1.0.22]
name=HDP-UTILS Version - HDP-UTILS-1.1.0.22
baseurl=http://172.17.100.21/ambari/HDP-UTILS/
gpgcheck=1
gpgkey=http://172.17.100.21/ambari/HDP-UTILS/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
---

tar -zxvf HDP-GPL-2.6.4.0-centos7-rpm.tar.gz

mv HDP-GPL /var/www/html/ambari

cd /var/www/html/ambari/HDP-GPL/

mv hdp-gpl.repo /etc/yum.repos.d/

cd /etc/yum.repos.d/

vim hdp-gpl.repo

---
#VERSION_NUMBER=2.6.4.0-91
[HDP-GPL-2.6.4.0]
name=HDP-GPL Version - HDP-GPL-2.6.4.0
baseurl=http://172.17.100.21/ambari/HDP-GPL/centos7/2.6.4.0-91/
gpgcheck=1
gpgkey=http://172.17.100.21/ambari/HDP-GPL/centos7/2.6.4.0-91/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
---

cd /etc/yum.repos.d/
scp ambari.repo hdp.repo hdp-gpl.repo zy-002.flyfish:/etc/yum.repos.d/
scp ambari.repo hdp.repo hdp-gpl.repo zy-003.flyfish:/etc/yum.repos.d/

yum clean all

yum makecache


4.3 安装mariadb-server 数据库

yum install -y mariadb-server 

systemctl start mariadb

systemctl enable mariadb

mysql_secure_installation

mysql -uroot -pflyfish225.com

ambari 数据库:

create database ambari character set utf8 ;
CREATE USER ‘ambari‘@‘%‘IDENTIFIED BY ‘Ambari-123‘;
GRANT ALL PRIVILEGES ON *.* TO ‘ambari‘@‘%‘;
FLUSH PRIVILEGES;

hive 数据库:

create database hive character set utf8 ;
CREATE USER ‘hive‘@‘%‘IDENTIFIED BY ‘Hive-123‘;
GRANT ALL PRIVILEGES ON *.* TO ‘hive‘@‘%‘;
FLUSH PRIVILEGES;

oozie 数据库:

create database oozie character set utf8 ;
CREATE USER ‘oozie‘@‘%‘IDENTIFIED BY ‘Oozie-123‘;
GRANT ALL PRIVILEGES ON *.* TO ‘oozie‘@‘%‘;
FLUSH PRIVILEGES;

4.3 安装jdbc

  拷贝jdbc 到 java的目录
  tar -zxvf mysql-connector-java-5.1.44.tar.gz
  cd mysql-connector-java-5.1.44
  cp mysql-connector-java-5.1.44-bin.jar  /usr/share/java/
  cd /usr/share/java/
  mv mysql-connector-java-5.1.44-bin.jar mysql-connector-java.jar
  chmod 777 mysql-connector-java.jar

4.4 安装ambari

yum install -y ambari-server 

vim /etc/ambari-server/conf/ambari.properties

----
增加:
  server.jdbc.driver.path=/usr/share/java/mysql-connector-java.jar

---

ambari-server setup --jdbc-db=mysql --jdbc-driver=/usr/share/java/mysql-connector-java.jar

ambari-server setup 

mysql -uroot -pflyfish225.com
use ambari
source /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql

4.5 启动ambari

ambari-server start

4.6 打开ambari的web

http://172.17.100.21:8080

用户名:admin
密码: admin

这里需要注意,主机注册成功后会对主机进行前置检查,如果有警告,需要进行检查并按要求进行相应的修改。

4.7 安装相关组件

报错:
请求 libtirpc-lib

wget http://mirror.centos.org/centos/7/os/x86_64/Packages/libtirpc-0.2.4-0.10.el7.x86_64.rpm

wget http://mirror.centos.org/centos/7/os/x86_64/Packages/libtirpc-devel-0.2.4-0.10.el7.x86_64.rpm

rpm -ivh libtirpc-* 

Retry 

可以在安装前面的步骤,增加其它组件,hive/oozie/pig/sqoop/hbase/spark/zeppelin

4.8 执行一个wordcount

su - hdfs 

hdfs dfs -mkdir /input 

vim wc.input
----
zhangyy hadoop
hadoop  spark
yarn    spark
----

hdfs dfs -put wc.input /input 

hadoop jar /usr/hdp/2.6.4.0-91/hadoop-mapreduce/hadoop-mapreduce-examples.jar wordcount  /input/ /output

hdfs dfs -get /output

五:启用NameNode HA 与 YARN HA

5.1 开启HDFS 的 HA 策略

先停掉hbase 

sudo su hdfs -l -c ‘hdfs dfsadmin -safemode enter‘

sudo su hdfs -l -c ‘hdfs dfsadmin -saveNamespace‘

sudo su hdfs -l -c ‘hdfs namenode -initializeSharedEdits‘

ZY-001.flyfish:

   sudo su hdfs -l -c ‘hdfs zkfc -formatZK‘

ZY-002.flyfish

   sudo su hdfs -l -c ‘hdfs namenode -bootstrapStandby‘

5.2 启用 YARN 的HA

原文地址:http://blog.51cto.com/flyfish225/2120008

时间: 2024-11-11 03:06:35

大数据平台HDP-2.6.4安装与配置的相关文章

大数据平台CDH5.14.2 的安装配置

大数据平台CDH5.14.2 的安装配置 标签(空格分隔): 大数据平台构建 一:系统环境初始化 二:安装CDH5.14.2 平台 三:分配主机与分配角色 一: 系统环境初始化 1.1: 系统环境介绍 系统: CentOS7.5X64 cat /etc/hosts --- 172.17.100.11 node-01.flyfish 172.17.100.12 node-02.flyfish 172.17.100.13 node-03.flyfish 172.17.100.14 node-04.f

大数据平台cdh5.3.x 的安装配置

一: CentOS6.8x64 环境初始化 二: cdh5.3.x 安装使软件配置 ##一: CentOS6.8x64 环境初始化 1.1 系统主机名配置 192.168.3.1 master.hadoop.com master 192.168.3.2 slave1.hadoop.com slave1 192.168.3.3 slave2.hadoop.com slave2 1.2 关闭iptables 与selinux 与禁用IPv6 1. 关闭iptables iptables -F ser

大数据高可用集群环境安装与配置(08)——安装Ganglia监控集群

1. 安装依赖包和软件 在所有服务器上输入命令进行安装操作 yum install epel-release -y yum install ganglia-web ganglia-gmetad ganglia-gmond –y 2. 在master服务器上配置监控端 vi /etc/ganglia/gmetad.conf 修改下面内容 data_source "server" 50 master:8649 master-backup:8649 node1:8649 node2:8649

大数据高可用集群环境安装与配置(07)——安装HBase高可用集群

1. 下载安装包 登录官网获取HBase安装包下载地址 https://hbase.apache.org/downloads.html 2. 执行命令下载并安装 cd /usr/local/src/ wget http://mirrors.tuna.tsinghua.edu.cn/apache/hbase/2.1.8/hbase-2.1.8-bin.tar.gz tar -zxvf hbase-2.1.8-bin.tar.gz mv hbase-2.1.8 /usr/local/hbase/ 3

大数据高可用集群环境安装与配置(06)——安装Hadoop高可用集群

下载Hadoop安装包 登录 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 镜像站,找到我们要安装的版本,点击进去复制下载链接 安装Hadoop时要注意版本与后续安装的HBase.Spark等相关组件的兼容,不要安装了不匹配的版本,而导致某些组件需要重装 输入命令进行安装操作 cd /usr/local/src/ wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/

大数据高可用集群环境安装与配置(05)——安装zookeeper集群

1. 下载安装包 登录官网下载安装包 https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/ 2. 执行命令下载并安装 cd /usr/local/src/ wget https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz tar -zxvf zookeeper-3.4.14.tar.gz mv zookeep

大数据高可用集群环境安装与配置(10)——安装Kafka高可用集群

1. 获取安装包下载链接 访问https://kafka.apache.org/downloads 找到kafka对应版本 需要与服务器安装的scala版本一致(运行spark-shell可以看到当前安装的scala版本) 2. 执行命令下载并安装 cd /usr/local/src/ wget https://www.apache.org/dyn/closer.cgi?path=/kafka/2.2.2/kafka_2.11-2.2.2.tgz tar -zxvf kafka_2.11-2.2

大数据高可用集群环境安装与配置(02)——配置ntp服务

NTP服务概述 NTP服务器[Network Time Protocol(NTP)]是用来使计算机时间同步化的一种协议,它可以使计算机对其服务器或时钟源(如石英钟,GPS等等)做同步化,它可以提供高精准度的时间校正(LAN上与标准间差小于1毫秒,WAN上几十毫秒),且可介由加密确认的方式来防止恶毒的协议攻击.时间按NTP服务器的等级传播.按照离外部UTC源的远近把所有服务器归入不同的Stratum(层)中. 安装部署 执行命令,安装ntp和ntpdate软件包 yum install ntp -

大数据高可用集群环境安装与配置(04)——安装JAVA运行环境

Hadoop运行在java环境,所以在安装Hadoop之前,需要安装好jdk 提前下载好jdk安装包(jdk-8u161-linux-x64.tar.gz),将它上传到指定的安装目录当中,然后运行安装 cd /usr/local/src/ rz # 在弹出的窗口中,选择本地的jdk安装包上传到服务器 tar -zxvf jdk-8u161-linux-x64.tar.gz mkdir /usr/local/java/ mv jdk1.8.0_161 /usr/local/java/jdk/ 配置

大数据高可用集群环境安装与配置(09)——安装Spark高可用集群

1. 获取spark下载链接 登录官网:http://spark.apache.org/downloads.html 选择要下载的版本 2. 执行命令下载并安装 cd /usr/local/src/ wget http://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.7.tgz tar -zxvf spark-2.4.4-bin-hadoop2.7.tgz mv spark-2.4.4