ngxtop nginx 日志实时峰分析

安装ngxtop

wget http://pypi.python.org/packages/source/s/setuptools/setuptools-0.6c11.tar.gz

tar zxvf setuptools-0.6c11.tar.gz

cd setuptools-0.6c11

python setup.py build

python setup.py install

wget https://pypi.python.org/packages/source/p/pip/pip-7.1.2.tar.gz#md5=3823d2343d9f3aaab21cf9c917710196

tar zxvf pip-7.1.2.tar.gz

cd pip-7.1.2

python setup.py install

pip install ngxtop

分析日志

ngxtop -l /var/log/nginx/access.log

访问量前十的IP

ngxtop -c /etc/nginx/nginx.conf top remote_addr

ngxtop 不支持nginx inclued 引用文件

http://www.ttlsa.com/nginx/nginx-modules-ngxtop-ttlsa/

http://www.72xit.com/1646.jsp

时间: 2024-11-12 07:49:26

ngxtop nginx 日志实时峰分析的相关文章

Perl统计nginx日志信息并分析每个小时的数据

#!/usr/bin/perl # name: logcalc.pl # calc the amount of access url use strict; use warnings; use diagnostics; use File::Basename; my ($arg, $arg_only); my $FILE; my ($year, $month, $day, $mon); my ($time, $method, $url); my ($amount, $hour, $key, $va

python利用inotify实现把nginx日志实时写入数据库

利用了pyinotify库,我用的是这里的这个,https://github.com/seb-m/pyinotify 其实网上yum上也有pyinotify库可以安装. 写入数据库是pymysql这里做一下记录, 先务pyinotify实现一个tail -f 的功能: #!/opt/python3/bin/python3 # import pyinotify import time import os import sys class ProcessTransientFile(pyinotify

烂泥:利用awstats分析nginx日志

昨天把nginx的日志进行了切割,关于如何切割nginx日志,可以查看<烂泥:切割nginx日志>这篇文章. 今天打算分析下nginx日志,要分析nginx日志,我们可以通过shell脚本和第三方软件awstats进行分析,在此我们选择的是通过第三方软件awstats进行分析. 要使用awstats分析nginx日志,我们要安装awstats,而在安装awstats之前,我们需要先来介绍下awstats是什么? 一.awstats是什么 awstats是一个免费非常简洁而且强大有个性的基于Pe

2018/10/10 awk 分析 nginx 日志

废话不多说,简单了解一下 awk - 强大的文本分析工具,也就是分析日志 最常用的就是分析日志了吧,做统计什么,这里也拿 nginx 日志来做分析 1:统计出现次数 - 比如状态码出现次数 - 先直接上命令 awk '{print $9}' access_log | sort | uniq -c | sort -rn - 可能会有一些疑惑,这个$9 是什么? - 我们拿出一条日志来看一下先 123.124.16.83 - - [10/Oct/2018:10:24:56 +0800] "GET /

nginx日志统计分析

本文主要使用的是grep,awk,cut等工具来对nginx日志进行统计和分析,具体如下: 1,列出当天访问最多次数的ip地址 cut -d- -f 1 /usr/local/nginx/logs/20160329/access_2016032913.log |uniq -c | sort -rn | head -20 [[email protected] 20160329]# cut -d- -f 1 /usr/local/nginx/logs/20160329/access_20160329

Nginx 日志分析及性能排查

最近一直在做性能排查,思路就是根据分析Nginx日志,得到响应耗时的url.以及请求时间,再得到这段时间的请求量,并发量,分析是并发的原因,还是本身就比较慢,如果是应用本身的原因,只需要找到对应的代码,然后进行优化就好了 找到的几个原因,基本就是后端sql运行的比较多,单次访问看不出来,但是人比较多的时候就比较慢了,人少的时候20-200毫秒,人多的时候,200-6000毫秒,优化之后基本保持在几十毫秒,优化策略就是减少不必要的sql,加上缓存,基本解决了卡顿的问题,顺便把这次用的一系列命令记录

用GoAccess来分析Nginx日志

首先,需要安装lnmp,已经安装完成,为了测试效果我把我自己的网站放进去可以测试一下.如果不知道怎么安装lnmp的可以参考 用shell脚本一键搭建lnmp环境实战  下面测试一下我搭建的效果 服务已经重启,那就测试一下我的网站能不能正常访问,因为是在本地的虚拟机上搭建的,用域名访问所以需要在hosts文件里定义一下,windows的hosts文件路径是:C:\Windows\System32\drivers\etc linux的hosts文件是/etc/hosts 到此网站已经搭建完成,那么我

ELK安装配置及nginx日志分析

一.ELK简介1.组成ELK是Elasticsearch.Logstash.Kibana三个开源软件的组合.在实时数据检索和分析场合,三者通常是配合使用,而且又都先后归于 Elastic.co 公司名下,故有此简称.Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等.Logstash是一个完全开源的工具,它可以对你的日志进行收集.分析,并将其存储供以后使用.kibana 是一个开源和

ELKR分布式搭建nginx日志分析系统

ELKR分布式搭建nginx日志分析系统 一.名词介绍 1.什么是elk ELK 其实并不是一款软件,而是一整套解决方案,是三个软件产品的首字母缩写,Elasticsearch,Logstash 和 Kibana.这三款软件都是开源软件,通常是配合使用. 2.Elasticsearch 2.1.Elasticsearch介绍 Elasticsearch 是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析.它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引