HDP2.4安装(五):集群及组件安装

HDP(Hortonworks Data Platform)是hortworks推出的100%开源的hadoop发行版本,以YARN 作为其架构中心,包含pig、hive、phoniex、hbase、storm、spark等大量组件,在最新的2.4版本,监控UI实现与grafana集成,包含组件版本对应图如下:(图片来自hortonwork官网)

安装过程:

  • 集群规划
  • 环境准备
  • 软件包下载:  (HDP2.4的安装包过大,推荐离线安装)
  • HDP安装部署

集群规划:

  • 192.168.2.89   hdp1     (ambari)
  • 192.168.2.2     hdp2     (worknode1)
  • 192.168.2.99   hdp3     (worknode2)
  • 192.168.2.21   hdp4     (masterNode)
  • 192.168.2.169 R          (secondary master、zookeeper)

环境准备:

  • 所有节点操作系统安装完成后,hdp1用来部署本地安装下载源,要求所有节点均能通过ssh无密访问
  • 在hdp1机器上,执行命令:vim /etc/hosts   配置文件内容如下图. (要求所有节点机器的hosts文件内容均是如此)
  • hdp1.命令: cd  ~/.ssh    (切换目录)
  • hdp1.命令:ssh-copy-id hdp1   (配置hdp1能无密访问所有节点)
  • hdp1.命令:ssh-copy-id hdp2
  • hdp1.命令:ssh-copy-id hdp3
  • hdp1.命令:ssh-copy-id hdp4
  • hdp1.命令:ssh-copy-id R
  • 注意:其它节点的机器如上配置,必须保证能无密访问hdp1
  • 将hdp安装包上传至hdp1服务器,并切换至该目录(如:/usr/zhu)
  • 命令: tar -zxvf HDP-2.4.2.0-centos7-rpm.tar.gz   (安装包文件解压)
  • 命令: tar -zxvf HDP-UTILS-1.1.0.20-centos7.tar.gz
  • 将解压后的生成的 HDP 和 HDP-UTILS-1.1.0.20 目录copy 到 /var/www/html 目录下
  • 手工创建名为 hdp.rpo 的文件,内容如下 (http://192.168.2.89为安装ambari的机器IP

    [HDP-2.4.2.0]
    name=HDPVersion-HDP-2.4.2.0
    baseurl=http://192.168.2.89/HDP/centos7/2.x/updates/2.4.2.0
    gpgcheck=1
    gpgkey=http://public-repo-1.hortonworks.com/HDP/centos7/2.x/updates/2.4.2.0/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
    enabled=1
    priority=1

  • 注意:baseurl 的地址必须与物理的文件能对应起来(即:http://192.168.2.89/HDP/centos7/2.x/updates/2.4.2.0能正确访问)
  • 同样方式,手工创建名为 hdp-util.repo 的文件,内容如下:

    [HDP-UTILS-1.1.0.20]
    name=HDPUtilsVersion-HDP-UTILS-1.1.0.20
    baseurl=http://192.168.2.89/HDP-UTILS-1.1.0.20/repos/centos7
    gpgcheck=1
    gpgkey=http://public-repo-1.hortonworks.com/HDP/centos7/2.x/updates/2.4.2.0/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
    enabled=1
    priority=1

  • 将 hdp.rpo 和 hdp-util.repo 文件上传至 /etc/yum.repos.d 目录,如下图:
  • 将上传至 hdp1 服务器上的 rpo 文件分发至集群内其它机器节点的相同目录,命令如下:
  • hdp1命令: cd /etc/yum.repos.d
  • hdp1命令: scp hdp.repo hdp-util.repo hdp2:/etc/yum.repos.d  (将文件copy至hdp2)
  • hdp1命令: scp hdp.repo hdp-util.repo hdp3:/etc/yum.repos.d
  • hdp1命令: scp hdp.repo hdp-util.repo hdp4:/etc/yum.repos.d
  • hdp1命令: scp hdp.repo hdp-util.repo R:/etc/yum.repos.d

HDP安装:

  • 在任意机器浏览器上打开ambari web 界面 (http://192.168.2.89:8080   user:admin  psd:admin)
  • 在主页面 ”Create a Cluster“ 版板,选择 ”Launch Install Wizard“,如图:
  • 按向导输入集群名
  • 选择hdp2.4, 我们采用离线安装,在高级选项中将 redhat7 以外的其它选项全部去掉,同时配置本地源地址(对应repo文件中baseUrl地址),如下:
  • 将ambari主机上生成的私钥文件下载到本地 (使用 sz 命令或 winSCP 工具 )
  • 在下一步中输入主机列表(hdp要求带FQDN的机器名,可不用理会),输入机器列表,导入私钥,如下图
  • 选择"Register and Confirm", 忽略弹出的警告提示,继续如下图:
  • 选择 "Next",  进入需要安装的服务选择模板(我主要是为了建HBase集群),选择的服务如下:
  • 选择 ”Next“, 进行服务与主机分配,如下图:
  • "Next" -> 进入 Slaves and client 分配,如下图:
  • ”Next" -> 进入 Customize Services 定义,给 hive metastore 分配数据库,输入数据库名、用户和密码(bigdata)
  • 点击 " Test Connection", 肯定是连不上的,手工创建数据库和用户

  • 执行:create database hive;    (创建hive数据库)
  • 执行:GRANT ALL PRIVILEGES ON hive.* TO ‘hive‘@‘localhost‘ IDENTIFIED BY ‘bigdata‘; (创建hive用户)
  • 执行:GRANT ALL PRIVILEGES ON hive.* TO ‘hive‘@‘%‘ IDENTIFIED BY ‘bigdata‘;
  • 执行:FLUSH PRIVILEGES;  (刷新权限)
  • 执行:quit;

  • 命令:service mysql restart;
  • 验证:mysql -u hive -p     (成功登陆则OK)

  • 点击 " Test Connection", 如上图则OK
  • ambari 监控UI 工具 admin 赋 密码(bigdata),如图:
  • "Next", 在服务安装清单界面,确认无误后,选择 ”Deploy"
  • 等待系统安装,安装结束后如图:
  • 出现如下界面,则表示安装ok

分类: HDP

原文地址:https://www.cnblogs.com/momoyan/p/11616506.html

时间: 2024-08-24 00:10:57

HDP2.4安装(五):集群及组件安装的相关文章

Spark新手入门——3.Spark集群(standalone模式)安装

主要包括以下三部分,本文为第三部分: 一. Scala环境准备 查看二. Hadoop集群(伪分布模式)安装 查看三. Spark集群(standalone模式)安装 Spark集群(standalone模式)安装 若使用spark对本地文件进行测试学习,可以不用安装上面的hadoop环境,若要结合hdfs使用spark,则可以参考上面的步骤搭建hadoop. 1. 下载安装包并解压(如:~/tools/spark-2.3.1-bin-hadoop2.7): 2. 启动服务 a.启动master

高可用集群之heartbeat安装配置

高可用集群之heartbeat安装配置 说明: 系统为rhel 5.8 64bit heartbeat版本为v2 配置web高可用服务 节点为两个:node1和node2 创建高可用集群需要注意的地方: 各节点需要传递集群事务信息,传递时需要识别各节点,每个节点对对方的识别必须靠节点名称来实现,节点名称能够解析IP地址,配置DNS的话,如果DNS挂了,节点也找不到了,所以对于名称的解析不要依赖DNS,这就需要使用本地hosts文件,需要为每一个节点配置好hosts文件解析,每一个节点的hosts

CentOS 7.5 使用 yum 源安装 Kubernetes 集群(二)

一.安装方式介绍 1.yum 安装 目前CentOS官方已经把Kubernetes源放入到自己的默认 extras 仓库里面,使用 yum 安装,好处是简单,坏处也很明显,需要官方更新 yum 源才能获得最新版本的软件,而所有软件的依赖又不能自己指定,尤其是你的操作系统版本如果低的话,使用 yum 源安装的 Kubernetes 的版本也会受到限制,通常会低于官方很多版本,我安装的时候目前官方版本为1.12,而 yum 源中的版本为1.5.2. 2.二进制安装 使用二进制文件安装,好处是可以安装

Kubernetes(K8s) 安装(使用kubeadm安装Kubernetes集群)

概述: 这篇文章是为了介绍使用kubeadm安装Kubernetes集群(可以用于生产级别).使用了Centos 7系统. PS: 篇幅有点长,但是比较详细.比较全面 一.Centos7 配置说明 1.1   Firewalld(防火墙) CentOS Linux 7 默认开起来防火墙服务(firewalld),而Kubernetes的Master与工作Node之间会有大量的网络通信,安全的做法是在防火墙上配置Kbernetes各组件(api-server.kubelet等等)需要相互通信的端口

安装redis 集群

安装redis集群 第一步:安装相关依赖包 1):安装redis-cluster依赖:redis-cluster的依赖库在使用时有兼容问题,在reshard时会遇到各种错误,请按指定版本安装. (1)确保系统安装zlib,否则geminstall会报(no such file to load -- zlib)     #download:zlib-1.2.6.tar       ./configure      make  make install   或者 yum install zlib (

CentOS7 通过Ambari安装Hadoop集群

第一次在cnblogs上发表文章,效果肯定不会好,希望各位多包涵. 编写这个文档的背景是月中的时候,部门老大希望我们能够抽时间学习一下Hadoop大数据方面的技术:给我的学习内容是通过Ambari安装Hadoop集群.通过一周左右的学习和实践,整理出现在这篇安装心得. 安装默认使用Root用户,避免权限问题导致不成功. 使用4台虚拟机构建Ambari-Server.Hadoop集群,分配如下: -       一台虚拟机,作为Ambari-Server: Hostname: ambari.ser

Redis安装与集群搭建

1 1.1   安装redis n  版本说明 本教程使用redis3.0版本.3.0版本主要增加了redis集群功能. 安装的前提条件: 需要安装gcc:yum install gcc-c++ 1.下载redis的源码包. 2.把源码包上传到linux服务器 3.解压源码包 tar -zxvf redis-3.0.0.tar.gz 4.Make 5.Make install [[email protected] redis-3.0.0]# make install PREFIX=/usr/lo

k8s1.9.0安装--完整集群部署

三.完整集群部署 - kubernetes-with-ca 1. 理解认证授权 1.1 为什么要认证 想理解认证,我们得从认证解决什么问题.防止什么问题的发生入手.防止什么问题呢?是防止有人入侵你的集群,root你的机器后让我们集群依然安全吗?不是吧,root都到手了,那就为所欲为,防不胜防了.其实网络安全本身就是为了解决在某些假设成立的条件下如何防范的问题.比如一个非常重要的假设就是两个节点或者ip之间的通讯网络是不可信任的,可能会被第三方窃取,也可能会被第三方篡改.就像我们上学时候给心仪的女

kubeadm安装kubernets集群

双12弄了两台腾讯云和百度云机器,组建k8s集群时需要服务器间组成内网环境: 在服务器组成内网后就可以安装kubernets集群了 因只是自己实验需要,所以服务器使用openxxx跨云组建的内网,各位在安装的时候建议还是使用同一内网环境,并使用2v4G以上服务器推介配置 大家的系统环境及各种安装包尽量使用同一个版本 1,服务器环境: 软件版本 Kubernetes v1.17.0   Docker version 19.03.5 master: 腾讯云1V2g,CentOS Linux rele