统计nginx日志

1.根据访问IP统计UV

awk ‘{print $1}‘  access.log|sort | uniq -c |wc -l

2.统计访问URL统计PV

awk ‘{print $7}‘ access.log|wc -l

3.查询访问最频繁的URL

awk ‘{print $7}‘ access.log|sort | uniq -c |sort -n -k 1 -r|more

4.查询访问最频繁的IP

awk ‘{print $1}‘ access.log|sort | uniq -c |sort -n -k 1 -r|more

统计nginx日志中访问最多的100个ip及访问次数

awk ‘{print $1}’ access.log|sort | uniq -c |sort -n -k 1 -r| head -n 100
---------------------
作者:YiFeng_888
来源:CSDN
原文:https://blog.csdn.net/weixin_42980713/article/details/86559017
版权声明:本文为博主原创文章,转载请附上博文链接!

参考:https://blog.csdn.net/weixin_42980713/article/details/86559017

原文地址:https://www.cnblogs.com/icemonkey/p/10447820.html

时间: 2024-10-09 05:25:18

统计nginx日志的相关文章

Perl统计nginx日志信息并分析每个小时的数据

#!/usr/bin/perl # name: logcalc.pl # calc the amount of access url use strict; use warnings; use diagnostics; use File::Basename; my ($arg, $arg_only); my $FILE; my ($year, $month, $day, $mon); my ($time, $method, $url); my ($amount, $hour, $key, $va

一个简易的python脚本统计nginx日志里的url及大小

log 日志格式如下 113.221.56.131 - [05/Feb/2015:18:31:19 +0800] " ab.baidu.com GET /media/game/a_.jpg HTTP/1.1" 200 169334 "http://laoma123.ybgj01.com/" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQWubi 133)" " 11

统计nginx日志单IP访问请求数排名

下面是我截取一段nginx日志 127.0.0.1 - - [20/Jan/2015:10:54:02 +0800] "GET / HTTP/1.1" 200 20808 "-" "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:31.0) Gecko/20100101 Firefox/31.0" 127.0.0.1 - - [20/Jan/2015:10:54:03 +0800] "GET /fa

Nginx日志统计

1)按每小时切割Nginx访问日志,并且将日志自动上传至FTP服务器: #!/bin/bash #auto mv nginx log shell #by author xiaoming S_LOG=/usr/local/nginx/logs/access.log D_LOG=/data/backup/`date +%Y%m%d%H%M` echo -e "\033[32mPlease wait start cutshell scripts...\033[0m" sleep 2 if [

nginx 日志统计接口每个小时访问量

指定时间段增量统计nginx日志不同接口的访问量: #!/bin/bash#此脚本用于统计nginx日志当前时间15分钟之内不同接口(URL)的访问量统计LOG=/usr/local/nginx/logs/interface.access.logTMP=/tmp/url.tmpURLSTATS=/var/log/interface_urlstats.logRECEIVERS="[email protected] [email protected]"#删除临时统计文件[ -f $TMP

分析nginx日志常用的命令总结

1. 利用grep ,wc命令统计某个请求或字符串出现的次数 比如统计GET /app/kevinContent接口在某天的调用次数,则可以使用如下命令: cat /usr/local/nginx/logs/access.log | grep 'GET /app/kevinContent' | wc -l 其中cat用来读取日志内容,grep进行匹配的文本搜索,wc则进行最终的统计. 当然只用grep也能实现上述功能: grep 'GET /app/kevinContent'  /usr/loc

多维度分析统计nginx访问日志

nginx日志访问量,多维度统计,__fields表示每条日志以空格分隔后索引对应的字段名称. 如0表示第一个字段客户端IP(client_ip),要统计其它字段,只需在这里添加即可. ## 直接上代码 # -*- coding:utf-8 -*- import sys try:     import json except ImportError:     import simplejson as json class AnalysisNginxLog(object):     ''' ana

Nginx日志统计方案全过程

本文主要记录下给予python的nginx日志统计过程,主要原因是最近系统经常遭到未知程序的疯狂爬数据,虽然做了防爬机制,但是还是必须要找出是哪些IP访问次数比较多.想到的办法就是通过分析ngxin日志,从而找出这些IP排行即可.具体方案的操作步骤包括: ngxin日志每日切割功能: 设置ngxin的日志格式: 编写python代码在每日切割之前统计下access.log中的IP访问次数并将统计结果录入MongoDB: 编写web查询MongoDB进行统计. 一.nginx日志每日切割功能 该功

Nginx日志切割及常用统计脚本

1,编辑脚本 进入到/usr/local/nginx/logs日志目录下,新建一个脚本,添加下面内容.指定好日志目录路径,日志文件名称和pid的文件,最后kill -USR1信号用来告知应用程序重载配置文件 vim log.sh #!/bin/bash logs_path="/usr/local/nginx/logs/" mv ${logs_path}www_mrliangqi.log ${logs_path}www_mrliangqi$(date -d "yesterday