Cacti监控磁盘IO(rhel)

1、检查net-snmp是否支持IO监控

snmpwalk -v 1 -c
public 监控机的IP UCD | more

执行如上命令,如果返回类似如下数据,则表示支持disk
io的监控,否则需要重新编译增加diskio-module模块。

1. UCD-DISKIO-MIB::diskIOIndex.1 = INTEGER:
1

2. UCD-DISKIO-MIB::diskIOIndex.2 = INTEGER: 2

3. UCD-DISKIO-MIB::diskIOIndex.3 = INTEGER: 3

2、cacti-devio模板:

原始版本:Cacti_Net-SNMP_DevIO_v3.1.tar.gz



net-snmp_devio.xml

net-snmp_devIO-BytesRW_graph_TMPL.xml

net-snmp_devIO-Data_query.xml

net-snmp_devIO-LoadAVG_graph_TMPL.xml

net-snmp_devIO-ReadsWrites_graph_TMPL.xml



修改后版本:Cacti_Net-SNMP_DevIO_centos5.tar.gz

修改部分:因名称问题,将统一的data模板进行拆分,并去掉了load部分(5版本中SNMP中无此部分,6版本中有)



net-snmp_devio.xml

cacti_data_query_ucdnet_-_get_device_io.xml

cacti_graph_template_ucdnet_-_device_io_-_bytes_readwritten.xml

cacti_graph_template_ucdnet_-_device_io_-_readswrites.xml



3、上传xml:

1、上传net-snmp_devio.xml到var/www/html/cacti/resource/snmp_queries/目录。

2、 同时赋权限:chown cacti.cacti net-snmp_devio.xml

chmod 644 net-snmp_devio.xml

4、导入模板

通过cacti后台的"Import
Templates"导入所有的*.xml文件,最后导入cacti_data_query_ucdnet_-_get_device_io.xml文件。完成后,你就可以在“Data
Queries”看到“ucd/net - Get Device I/O”。

5、为已存在的"ucd/net SNMP
Host"增加磁盘IO监控。

切换到"devices",点击已存在的"ucd/net snmp host"主机,往页尾看,在“Associated Data
Queries”的"Add Data Query: "中选择"ucd/net - Get Device I/O","Re-Index
Method: "选择"Index Count Changed",点击"Add"增加Data Queries。

6、创建IO图形监控

接着点击页头的"Create Graphs for this Host",在"
Data Query [ucd/net - Get Device
I/O]"下面选择需要监控的磁盘,点击"create"开始创建图形。
至此cacti监控磁盘IO的设置已经完成。

Cacti监控磁盘IO(rhel),布布扣,bubuko.com

时间: 2024-08-10 01:51:34

Cacti监控磁盘IO(rhel)的相关文章

Cacti监控磁盘IO

1.下载Cacti_Net-SNMP_DevIO_v3.1.zip 下载Cacti_Net-SNMP_DevIO_v3.1.zip,解压并上传net-snmp_devio.xml到/resource/snmp_queries/目录. 2.导入模板 通过cacti后台的"Import Templates"导入所有的*_TMPL.xml文件,最后导入net-snmp_devIO-Data_query.xml文件.完成后,你就可以在“Data Queries”看到“ucd/net - Get

cacti 监控磁盘IO需要注意的地方

监控linux机器的磁盘IO,使用cacti官方社区模板diskio http://docs.cacti.net/usertemplate:data:host_mib:diskio 具体用法不讲,有一个bug,监控64位linux机器时,数据不准确,原因是diskio.xml文件中统一定义了counter32的数据 <interface>         <name>Get Disk IO Information</name>         <index_ord

zabbix监控磁盘IO

监控磁盘IO的基本原理:通过分析/proc/diskstats文件,来对IO的性能进行监控. ++++++++++++++++++++++++对/proc/diskstats的解释++++++++++++++++++++++++++++++ # cat /proc/diskstats |grep sda |head -1    8    0     sda 2280 1445 76478 11956 249 188 3490 932 0 9913 12805 解释说明: 第一至第三个域,分别是主

第七章——DMVs和DMFs(4)——用DMV和DMF监控磁盘IO

原文:第七章--DMVs和DMFs(4)--用DMV和DMF监控磁盘IO 前言: 本文为本系列最后一篇,作为DBA,你必须经常关注磁盘的I/O问题,一旦出现问题,要尽快分析出是什么问题.SQLServer同样提供了一些列与I/O相关的DMO来做监控. 本文介绍如何使用DMO来监控I/O子系统的性能并找到I/O瓶颈.通过本文,可以区分不同数据库的I/O使用模式.一旦发现有数据库的I/O很高,可能需要考虑把数据库迁移到单独的磁盘,或者深入研究I/O产生的问题. 准备工作: 本文将演示如何监控数据库文

zabbix应用之Low-level discovery监控磁盘IO

zabbix自带的"Template OS Linux"模板支持监控已挂载的磁盘空间利用率,是利用LLD(Low-level discovery)实现的,却没有对磁盘IO监控.本篇文章就介绍利用zabbix LLD功能监控磁盘IO的方法. 思路:首先创建Discovery rules,在agent端配置对应的UserParameter,调用编写好的shell脚本,动态查找出已经挂载的磁盘分区:然后创建Item prototypes,使用vfs.dev.read[device,<t

zabbix监控磁盘IO(二)

1.磁盘发现脚本 vim disk_io.sh  #!/bin/bash  diskarray=(`cat /proc/diskstats |grep -E "\bsd[a-z]\b|\bxvd[a-z]\b|\bvd[a-z]\b"|awk '{print $3}'|sort|uniq   2>/dev/null`)    length=${#diskarray[@]} printf "{\n" printf  '\t'"\"data\&

第十篇、【Zabbix监控项之自定义监控磁盘IO】

一.自定义监控项获取磁盘IO所需的值 1.在zabbix Agent端配置文件配置如下内容 [[email protected]_3WYY_WEB ~]# vi /usr/local/zabbix-4.4.3/etc/zabbix_agentd.conf 305 ### Option: UserParameter 306 # User-defined parameter to monitor. There can be several user-defined parameters. 307 #

zabbix监控磁盘 IO

磁盘IO:  单位时间内读写数据量  单位时间内读写次数 取值脚本: #!/use/bin/env python #coding:utf-8 # Description:for zabbix discovery disk partition on linux machine import os import re,json cmd = """cat /proc/diskstats |grep -E '\ssd[a-z]\s|\sxvd[a-z]\s|\svd[a-z]\s'|

Zabbix 监控磁盘IO状态

一.监控原理 基本原理:通过分析/proc/diskstats文件,来对IO的性能进行监控.解释如下: +++++++++++++++++++++++++++对/proc/diskstats的解释++++++++++++++++++++++++++ # cat /proc/diskstats | grep sda | head -1 8 0 sda 73840 10263 3178156 91219 1110085 4192562 42423152 1275861 0 447798 136637