Prometheus(三):Prometheus监控交换机(snmp)

默认已安装Prometheus服务,服务地址:192.168.56.200

一、获取交换机snmp信息

snmp服务IP(交换机IP):172.20.2.83

snmp community:dfetest

二、部署 snmp_exporter

2.1 下载snmp_exporter

下载snmp_exporter安装包,下载地址:https://github.com/prometheus/snmp_exporter/releases

下载完成后,上传至机器的  /usr/local 目录下

解压安装包

#   tar -zvxf snmp_exporter-0.15.0.linux-arm64.tar.gz
#   mv snmp_exporter-0.15.0.linux-arm64/ snmp_exporter

2.2 配置snmp_exporter

snmp_exporter的配置文件需要自己通过SNMP Exporter Config Generator 项目编译生成,

参考方法: https://github.com/prometheus/snmp_exporter/tree/master/generator#file-format

由于Prometheus使用go语言开发的,所以自己编译生成snmp_exporter的配置文件需要go环境,Linux中安装go环境可参考:https://www.cnblogs.com/guoxiangyue/p/11772717.html  中安装go环境章节

go环境安装以后,构建snmp exporter  config Generator,执行以下操作:

#  yum -y install git
#  yum -y install gcc gcc-g++ make net-snmp net-snmp-utils net-snmp-libs net-snmp-devel
#  go get github.com/prometheus/snmp_exporter/generator
#  cd ${GOPATH-$HOME/go}/src/github.com/prometheus/snmp_exporter/generator
#  go build
#  make mibs

编译完成后,修改当前目录下的generator.yml 文件,generator.yml文件的配置可以参考 https://github.com/prometheus/snmp_exporter/tree/master/generator#file-format ,generator.yml文件中只需要注入snmp的community即可,下面仅修改了modules.if_mib.auth字段,其余与 File Format 中一致。

#  vim generator.yml

generator.yml 中module.if_mib.auth字段:

modules:
  # Default IF-MIB interfaces table with ifIndex.
  if_mib:
    walk: [sysUpTime, interfaces, ifXTable]
    version: 1
    auth:
      community: dfetest
    lookups:
      - source_indexes: [ifIndex]
        lookup: ifAlias
      - source_indexes: [ifIndex]
        lookup: ifDescr
      - source_indexes: [ifIndex]
        # Use OID to avoid conflict with Netscaler NS-ROOT-MIB.
        lookup: 1.3.6.1.2.1.31.1.1.1.1 # ifName
    overrides:
      ifAlias:
        ignore: true # Lookup metric
      ifDescr:
        ignore: true # Lookup metric
      ifName:
        ignore: true # Lookup metric
      ifType:
        type: EnumAsInfo

修改完成后,保存退出,执行以下操作,生成新的 snmp.yml 文件

#   export MIBDIRS=mibs
#   ./generator generate

将新生成的snmp.yml 替换掉原snmp_exporter中的snmp.yml

#   cp snmp.yml /usr/local/snmp_exporter

2.3 验证并设置snmp_exporter 服务开机启动

#   cd /usr/local/snmp_exporter
#   ./snmp_exporter

开启服务端口在9116上,浏览器访问 http://192.168.56.200:9116 , 在 Target 输入框中填入交换机IP地址,点击 submit 按钮,出现数据,在snmp_exporter 配置成功。

2.4 设置snmp_exporter 以服务方式,开机启动

Ctrl+C 结束掉 snmp_exporter 进程,创建 snmp_exporter 服务,让 snmp_exporter 以服务的方式,开机自启。

添加系统服务

#   vim /etc/systemd/system/snmp_exporter.service

将以下内容写入文件中

[Unit]
Description=node_exporter
After=network.target 

[Service]
ExecStart=/usr/local/snmp_exporter/snmp_exporter
Restart=on-failure

[Install]
WantedBy=multi-user.target

启动服务,设置开机自启

#  systemctl daemon-reload
#  systemctl enable snmp_exporter
#  systemctl start snmp_exporter

三、修改Prometheus 配置

进入Prometheus的安装文件夹,打开Prometheus配置文件

#  cd /usr/local/prometheus
#  vim prometheus.yml

在scrape_configs标签下,添加以下内容,配置监控。params.module中可以配置需要抓取的模块,不配置表示全部抓取。

- job_name: ‘snmp‘
    scrape_interval: 10s
    static_configs:
     - targets:
       - 172.20.2.83  # 交换机IP地址
    metrics_path: /snmp
    # params:
     # module: [if_mib]
    relabel_configs:
      - source_labels: [__address__]
        target_label: __param_target
      - source_labels: [__param_target]
        target_label: instance
      - target_label: __address__
        replacement: 192.168.56.200:9116 # snmp_exporter 服务IP地址

以下是Prometheus.yml 文件全部内容

# my global config
global:
  scrape_interval:     15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
  evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
  # scrape_timeout is set to the global default (10s).

# Alertmanager configuration
alerting:
  alertmanagers:
  - static_configs:
    - targets:
      # - alertmanager:9093

# Load rules once and periodically evaluate them according to the global ‘evaluation_interval‘.
rule_files:
  # - "first_rules.yml"
  # - "second_rules.yml"

# A scrape configuration containing exactly one endpoint to scrape:
# Here it‘s Prometheus itself.
scrape_configs:
  # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
  - job_name: ‘prometheus‘

    # metrics_path defaults to ‘/metrics‘
    # scheme defaults to ‘http‘.

    static_configs:
    - targets: [‘localhost:9090‘]

  - job_name: ‘Linux‘
    static_configs:
    - targets: [‘192.168.56.201:9100‘]
      labels:
        instance: Linux

  - job_name: ‘Windows‘
    static_configs:
    - targets: [‘192.168.56.1:9182‘]
      labels:
        instance: Windows

  - job_name: ‘snmp‘
    scrape_interval: 10s
    static_configs:
     - targets:
       - 172.20.2.83  # 交换机IP地址
    metrics_path: /snmp
    # params:
     # module: [if_mib]
    relabel_configs:
      - source_labels: [__address__]
        target_label: __param_target
      - source_labels: [__param_target]
        target_label: instance
      - target_label: __address__
        replacement: 192.168.56.200:9116 # snmp_exporter 服务IP地址

保存退出,重启Prometheus服务

#  systemctl restart prometheus

浏览器访问 http://192.168.56.200:9090/targets  查看监控信息

可以看到,snmp已经加入进来。

四、配置Grafana

添加dashboard

Grafana官方为我们提供了很多dashboard页面,可直接下载使用。浏览器访问 https://grafana.com/grafana/dashboards 下载所需要的dashboard页面

此处我们使用  snmp 的监控dashboard,dashboard Id为:10523

然后打开我们的Grafana监控页面,打开dashboard的管理页面

点击【import】按钮

然后将我们刚才的dashboard Id (10523) 复制进去

Grafana会自动识别dashboard Id 。

然后点击【change】按钮,生成一个随机的UID,然后点击下方输入框,选择我们之前创建的数据源Prometheus,最后点击【Import】按钮,即可完成导入。

导入成功后,会自动打开该Dashboard,即可看到我们刚才设置好的snmp监控

至此Prometheus监控交换机,配置完成。

原文地址:https://www.cnblogs.com/guoxiangyue/p/11778217.html

时间: 2024-11-07 10:40:49

Prometheus(三):Prometheus监控交换机(snmp)的相关文章

prometheus+grafana+docker 监控tomcat jvm

说明:基于环境mesos+marathon+docker+prometheus+grafana监控tomcat一.配置环境(1)dockerfile from tomcat COPY tomcat-users.xml /usr/local/tomcat/conf/ COPY server.xml /usr/local/tomcat/conf/ COPY context.xml /usr/local/tomcat/webapps/manager/META-INF/ COPY catalina.sh

用Prometheus细化Nginx监控

国内用Nginx的比较多,Nginx的监控比较老的方案可能是通过跑脚本定期收集nginx的status模块的数据,或者监控nginx的日志:后来阿里的tengine在国内开始流行,于是诞生了很多不错的lua模块;但是这些监控方案在有新的监控需求的时候,可能就需要再修改脚本或者更改nginx conf配置,有时候不是特别的方便.用Prometheus进行nginx的监控可以自动的对相关server_name和upstream进行监控,你也可以自定义Prometheus的数据标签,实现对不同机房和不

k8s+Prometheus+Grafana的监控部署

一.安装部署k8s集群 可以参考https://www.cnblogs.com/liugp/p/12115945.html 二.Prometheus+Grafana的监控部署 2.1.master/node节点环境部署 在[master]可以进行安装部署安装git,并下载相关yaml文件 https://gitee.com/liugpwwwroot/k8s-prometheus-grafana.git 在[node]节点下载监控所需镜像(非必须) docker pull prom/node-ex

zabbix snmp监控交换机流量

zabbix监控交换机是非常的简单,只需知道交换机snmp的密码,然后连结下自带的snmp模板,就可以完成监控了,还有什么比这配置更简单的? 1.配置交换机的snmp 1 2 snmp-server community yang ro   #配置读取snmp的密码   snmp-server community yangrong rw   #配置可写的snmp密码,为安全起见,最好别开启 在linux上安装net-snmp net-snmp-utils包,测试snmp访问 1 2 #snmpwa

Prometheus+Grafana部署监控docker服务

1.环境192.168.244.128 Prometheus 监控服务器192.168.244.129 docker 服务(被监控端)注:都是centos7.5系统 2.下载安装包https://prometheus.io/download/ (需要的安装包都可以下载)wget https://github.com/prometheus/prometheus/releases/download/v2.3.2/prometheus-2.3.2.linux-amd64.tar.gz 服务端(监控se

使用Helm部署Prometheus和Grafana监控Kubernetes

使用Helm部署Prometheus和Grafana监控Kubernetes [TOC] 1. 环境说明 可用的kubernetes集群 可用的持久化存储 可用的helm 这里我们使用kubeapps管理charts. 2. 安装chart 安装时,适当修改values.yaml里的参数以适应自身的环境.我是设置持久化存储.ingress和证书secret. 安装Prometheus 安装成功后,注意提示页面的提示.同一namespace里,引用域名可只使用前面一段. 同理,安装stable/m

Prometheus 运维监控

Prometheus 运维监控 1.Prometheus 介绍详解 2.Prometheus 安装部署 3.Prometheus 配置文件详解 4.Prometheus PromSQL 常用资源 5.Prometheus 配置采集目标 6.Prometheus 重新标签 7.Prometheus 标签使用示例整合 8.Prometheus 基于文件的服务发现 9.Prometheus 监控linux服务器 10.Prometheus PromSQL 获取系统服务运行状态 11.Prometheu

istio+prometheus+grafana 流量监控

从零到一配置 OpenAP: 概要        Istio采集指标prometheus+grafana方案,搭建(promethues+prometheus-postgresql-adapter+pg_prometheus) promethues·监控存储平台, 通过Istio+grafana 进行istio流量注入grafana图表展示,实现对API流量的统计. 配置 Prometheus 并且把数据存储至  Postgres (Prometheus + Postgres[Timescale

基于grafana+prometheus构建Flink监控

先上一个架构图: Flink App : 通过report 将数据发出去 Pushgateway :  Prometheus 生态中一个重要工具 Prometheus :  一套开源的系统监控报警框架 (Prometheus 入门与实践) Grafana: 一个跨平台的开源的度量分析和可视化工具,可以通过将采集的数据查询然后可视化的展示,并及时通知(可视化工具Grafana:简介及安装) Node_exporter : 跟Pushgateway一样是Prometheus 的组件,采集到主机的运行