使用Mtools分析MongoDB日志文件

一 Mtools介绍

mtools是一组用来解析和过滤MongoDB日志文件的脚本。mtools包括以下几个工具:

mlogfilter    可以根据时间切割日志文件,过滤慢查询等

mloginfo      返回日志文件信息,比如开始和结束时间等

mplotqueries   对日志文件进行视图展现

mlogvis      创建一个自定义html文件交互式展现

mlaunch      快速搭建本地测试环境,包括复制集合分片系统

mtools是用python写的,需要python2.6或者python2.7,目前不兼容python3

二 Mtools使用

1.安装mtools

可以使用pip直接安装mtools

yum install python-devel

pip install mtools

或者直接下载安装

wget https://pypi.python.org/packages/25/fe/c9375c462c9f0592407695bb5ce784866ce7b5336b8d66141e1f3250cf1f/mtools-1.2.2.tar.gz
tar zxvf mtools-1.2.2.tar.gz

参考文档:

https://github.com/rueckstiess/mtools

时间: 2024-10-10 18:15:14

使用Mtools分析MongoDB日志文件的相关文章

使用PowerShell调用MTools分析MongoDB性能并发送邮件

使用PowerShell调用MTools分析MongoDB性能并发送邮件 问题描述: 在MongoDB日常运维中,经常需要查看连接数的趋势图.慢查询.Overflow语句.连接来源. 解决方案: 1. 将Windows备份机目录挂载到MongoDB本地目录下,将LogRotate切换后的最新一个日志拷贝到备份目录. 参考博文:<在Linux下挂载Windows系统共享目录> 2. 在Windows服务器上安装Mtools. 参考博文:<在64位Windows Server 2008 R2

awstats分析nginx日志文件

awstats分析nginx日志文件,将生成的结果(为txt文件)保存在/var/www/awstats目录下,通过apche来 显示生成的结果. nginx的域名为:www.a.com:80 LogFile="/usr/local/mybin/nginx/logs/access.log"  #nginx的日志文件路径 DirData="/var/www/awstats/" #awstats生成结果的保存路径 SiteDomain="www.a.com&q

如何分析网站日志文件

很多新手站长对于如何分析网站日志文件一筹莫展,打开.log日志文件看到的只有密密麻麻的数字和字母,细看能看出是什么含义,但是想要系统科学的去进行分析太耗时间,这时一般只能借助于第三方日志分析软件,而下面介绍一种不需要下载日志分析软件即可很有效率地分析log文件的方法: 步骤一:下载你的网站日志文件并打开,选择编辑替换功能,将空格替换成英文逗号: 步骤二:打开替换好的日志文件选择文件另存为,保存类型改成所有文件,文件名后缀为csv,比如log.csv,然后点击保存: 步骤三:新建一个excel表格

分析ngnix日志文件的开发程序记录

package com.school.statistics; import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.FileOutputStream; import java.io.IOException; impor

在Linux上使用logwatch分析监控日志文件

原文:http://seanlook.com/2014/08/23/linux-logwatch-usage/ 1. 介绍 在维护Linux服务器时,经常需要查看系统中各种服务的日志,以检查服务器的运行状态. 如登陆历史.邮件.软件安装等日志.系统管理员一个个去检查会十分不方便:且大多时候,这会是一种被动的检查,即只有在发现系统运行异常时才会想到去查看 日志以获取异常的信息.那么如何主动.集中的分析这些日志,并产生报告,定时发送给管理员就会显得十分重要. logwatch 是一款用 Perl 语

分析IIS日志文件

"D:\Program Files (x86)\Log Parser 2.2\logparser.exe" "SELECT * FROM 'D:\u_ex160405.log' to MyMVC_WebLog" -i:IISW3C -o:SQL -oConnString:"Driver={SQL Server};server=RPBPC7OICVYFNTK\MSSQL2008R2;database=MyTestDb;Integrated Security=

Nginx 分析access日志文件

Nginx Access Log日志统计分析常用命令 IP相关统计 统计IP访问量 awk '{print $1}' access.log | sort -n | uniq | wc -l 查看某一时间段的IP访问量(4-5点) grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l 查看访问最频繁的前100个IP awk '{print $1}' access

ELK 分析nginx日志文件

注意:修改配置后建议重新创建index 1.nginx 日志文件格式 log_format elk "$http_clientip | $http_x_forwarded_for | $time_local | $request | $status | $body_bytes_sent | "  "$request_body | $content_length | $http_referer | $http_user_agent | "  "$http_c

从Apache的日志文件收集和提供统计数据(一个Python插件架构的简单实现)

从Apache的日志文件收集和提供统计数据 这一章我们将介绍基于插件程序的架构和实现.作为例子,我们将构建一个分析Apache服务器log文件的框架.这一次我们不再使用单片机的方式来创建,而是改为采用模块化的方式.一旦我们有了一个基本框架,我们就可以为它创建一个插件.这个插件可以基于请求者的地理位置执行分析. 程序的结构和功能 在数据维护和统计收集领域,很难有一个单一的应用程序可以适合多个用户的需求.让我们以分析Apache的web服务器日志文件为例.web服务器接受到的每一个请求都被记录在日志