Ganglia监控Hadoop集群的安装部署

Ganglia是UC Berkeley发起的一个开源实时监视项目,用于测量数以千计的节点,为云计算系统提供系统静态数据以及重要的性能度量数据。Ganglia系统基本包含以下三大部分。

Gmond:Gmond运行在每台计算机上,它主要监控每台机器上收集和发送度量数据(如处理器速度、内存使用量等)。

Gmetad:Gmetad运行在Cluster的一台主机上,作为Web Server,或者用于与Web Server进行沟通。

Ganglia Web前端:Web前端用于显示Ganglia的Metrics图表

一、安装环境

  • Ubuntu 14.04
  • master:192.168.1.10
    slave1:192.168.1.20 slave2:192.168.1.30
    salve2:192.168.1.40 slave3:192.168.1.50
    slave4:192.168.1.60

  • 安装gmetad的机器:master

  • 安装gmond的机 器:slave1
    slave2 slave3
    slave4 slave5

  • 浏览监控web页面的机器:master
  • 二、介绍

    Ganglia 监控套件包括三个主要部分:gmond,gmetad,和网页接口,通常被称为ganglia- web。

    • gmond 是一个守护进程,他运行在每一个需要监测的节点上,收集监测统计,发送和接受在同一个组播或单播通道上的统计信息。
    • gme tad 也是一个守护进程,他定期检查gmonds ,从那里拉取数据,并将他们的指标存储在RRD存储引擎中。它可以查询多个集群并聚合指标。RRD也被用于生成用户界面的web前端。
    • ganglia- web 顾名思义,他应该安装在有gmetad运行的机器上,以便读取RRD文件。

    一般来说一个集群的每台机器上都需要安装gmond,只要负责展示web界面的机器安装了gmetad即可。

  • 三、在ubuntu上安装ganglia
  • 在master虚拟机上,运行以下命令:

  • sudo apt-get install ganglia-monitor rrdtool gmetad ganglia-webfrontend

    在安装过程中,你应该会看到类似下面的安装后与apache2服务器重启选择,直接 Yes,然后按Enter键。

  • 四、Ganglia 主节点配置

    所有的配置都在/etc/ganglia目录下,在每个节点上都要配置/etc/ganglia/gmond.conf.

  • 在命令行中输入以下命令:

  • sudo vim /etc/ganglia/<span style="font-family: monospace; font-size: 14px; line-height: 26px;">gmond</span>.conf

  • 红色字体为修改项。
  • <span style="font-family: monospace; line-height: 26px; font-weight: normal;"><span style="font-size:18px;">
    </span></span>
  • <span style="font-family: monospace; line-height: 26px; font-weight: normal;"><span style="font-size:18px;">
    </span></span>
  • <span style="font-family: monospace; line-height: 26px; font-weight: normal;"><span style="font-size:18px;">
    </span></span>
  • <span style="font-family: monospace; line-height: 26px; font-weight: normal;"><span style="font-size:18px;">
    </span></span>
  • <span style="font-weight: normal;">globals {
    daemonize = yes
    setuid = yes
    <span style="color:#ff0000;">user = hadoop /*运行Ganglia的用户,我的用户为hadoop*/</span>
    debug_level = 0
    max_udp_msg_len = 1472
    mute = no
    deaf = no
    host_dmax = 120
    cleanup_threshold = 300
    gexec = no
    <span style="color:#ff0000;">send_metadata_interval = 15 /*发送数据的时间间隔*/</span>
    }
    
    cluster {
    <span style="color:#ff0000;">name = "hadoop" /*集群名称*/</span>
    <span style="color:#ff0000;">owner = "nobody" /*运行Ganglia的用户*/</span>
    latlong = "unspecified"
    url = "unspecified"
    }
    
    udp_send_channel {
    # mcast_join = <span class="number" style="margin: 0px; padding: 0px; border: none; color: rgb(192, 0, 0); font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px;">239.2</span><span style="margin: 0px; padding: 0px; border: none; font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px;">.</span><span class="number" style="margin: 0px; padding: 0px; border: none; color: rgb(192, 0, 0); font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px;">11.71</span><span style="margin: 0px; padding: 0px; border: none; font-family: Consolas, 'Courier New', Courier, mono, serif; line-height: 18px;"> </span> /*这里不需要更改*/
    port = 8649
    ttl = 1
    }</span>

    配置gmetad.conf,在命令行中输入以下命令:

    <span style="font-weight: normal;"><span style="font-size:18px;">sudo vim /etc/ganglia/gmetad.conf</span></span>
    <span style="font-weight: normal;"><span style="font-size:18px;">data_source "hadoop" master slave1 slave2 slave3 slave4 slave5</span></span>

    五、启动&运行

    <span style="font-family: monospace; line-height: 26px; font-weight: normal;"><span style="font-size:18px;">sudo /etc/init.d/ganglia-monitor start</span></span><span style="font-weight: normal;"><span style="font-size:18px;"> (每台机器都需要启动)</span></span>
  • <span style="font-weight: normal;"><span style="font-size:18px;"><span style="font-family: monospace; line-height: 26px;">sudo /etc/init.d/gmetad start</span>(服务端的机器上启动)</span></span>
  • <span style="font-weight: normal;"><span style="font-family: monospace; line-height: 26px;"><span style="font-size:18px;">sudo /etc/init.d/apache2 restart(服务端启动)</span></span>
    </span>
  • 在网上上输入 http://master/ganglia/
    有以下界面显示就表示成功
  • 时间: 2024-10-12 06:37:16

    Ganglia监控Hadoop集群的安装部署的相关文章

    Ganglia监控Hadoop集群的安装部署[转]

    Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52.31,192.168.52.32,192.168.52.33,192.168.52.34,192.168.52.35,192.168.52.36,192.168.52.37,192.168.52.38,192.168.52.105 浏览监控web页面的机器:192.168.52.105 二. 介绍

    Apache Hadoop集群离线安装部署(三)——Hbase安装

    Apache Hadoop集群离线安装部署(一)--Hadoop(HDFS.YARN.MR)安装:http://www.cnblogs.com/pojishou/p/6366542.html Apache Hadoop集群离线安装部署(二)--Spark-2.1.0 on Yarn安装:http://www.cnblogs.com/pojishou/p/6366570.html Apache Hadoop集群离线安装部署(三)--Hbase安装:http://www.cnblogs.com/po

    Apache Hadoop集群离线安装部署(一)——Hadoop(HDFS、YARN、MR)安装

    虽然我已经装了个Cloudera的CDH集群(教程详见:http://www.cnblogs.com/pojishou/p/6267616.html),但实在太吃内存了,而且给定的组件版本是不可选的,如果只是为了研究研究技术,而且是单机,内存较小的情况下,还是建议安装Apache的原生的集群拿来玩,生产上自然是Cloudera的集群,除非有十分强大的运维. 我这次配了3台虚拟机节点.各给了4G,要是宿主机内存就8G的,可以搞3台2G,应该也是ok的. 〇.安装文件准备 Hadoop 2.7.3:

    Hadoop集群环境安装部署

    1.环境准备: 安装Centos6.5的操作系统 下载hadoop2.7文件 下载jdk1.8文件 2.修改/etc/hosts文件及配置互信: 在/etc/hosts文件中增加如下内容: 192.168.1.61 host61 192.168.1.62 host62 192.168.1.63 host63 配置好各服务器之间的ssh互信 3.添加用户,解压文件并配置环境变量: useradd hadoop passwd hadoop tar -zxvf hadoop-2.7.1.tar.gz

    Hadoop学习笔记_8_实施Hadoop集群 --分布式安装Hadoop

    实施Hadoop集群 --分布式安装Hadoop 说明: 以Ubuntu配置为例,其中与CentOS不同之处会给出详细说明 现有三台服务器:其IP与主机名对应关系为: 192.168.139.129 master #NameNode/JobTrackerr结点 192.168.139.132 slave01 #DataNode/TaskTracker结点 192.168.139.137 slave02 #DataNode/TaskTracker结点 一.配置ssh实现Hadoop节点间用户的无密

    Hadoop伪分布式集群的安装部署

    一.如何为虚拟机做快照? 1.什么是快照? 快照就是对当前的虚拟机状态进行拍照,保留虚拟机当前状态的操作信息. 2.为什么要为虚拟机做快照? 第一:为克隆不同状态的虚拟机提前做准备. 第二:当对虚拟机的某些操作执行错误而且改正比较麻烦的时候,可以切换到之前正常的虚拟机状态重新进行相关的操作. 3.如何为虚拟机做快照? (1)选择要克隆的虚拟机,然后“右键”,选择“快照”,然后选择“拍摄快照”. (2)可以为快照取个名称,也可以为虚拟机当前的状态做个描述,然后点击“拍摄快照”. 4.如何转到某一特

    分布式实时日志系统(一)环境搭建之 Jstorm 集群搭建过程/Jstorm集群一键安装部署

    最近公司业务数据量越来越大,以前的基于消息队列的日志系统越来越难以满足目前的业务量,表现为消息积压,日志延迟,日志存储日期过短,所以,我们开始着手要重新设计这块,业界已经有了比较成熟的流程,即基于流式处理,采用 flume 收集日志,发送到 kafka 队列做缓冲,storm 分布式实时框架进行消费处理,短期数据落地到 hbase.mongo中,长期数据进入 hadoop 中存储. 接下来打算将这其间所遇到的问题.学习到的知识记录整理下,作为备忘,作为分享,带给需要的人. 淘宝开源了许多产品组件

    Hadoop集群_Hadoop安装配置

    1.集群部署介绍 1.1 Hadoop简介 Hadoop是Apache软件基金会旗下的一个开源分布式计算平台.以Hadoop分布式文件系统(HDFS,Hadoop Distributed Filesystem)和MapReduce(Google MapReduce的开源实现)为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构. 对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve.一个HDFS集群是由一个NameNode和若干个DataNode组成的.其中Nam

    Hadoop集群_CentOS安装配置

    1.准备安装 1.1 系统简介 CentOS 是什么? CentOS是一个基于Red Hat 企业级 Linux 提供的可自由使用的源代码企业级的 Linux 发行版本.每个版本的 CentOS 都会获得七年的支持(通过安全更新方式).新版本的 CentOS 每两年发行一次,而每个版本的 CentOS 会定期(大概每六个月)更新一次,以便支持新的硬件.这样,建立一个安全.低维护.稳定.高预测性.高重复性的 Linux 环境. CentOS(Community Enterprise Operati