perl统计http日志ip

use 5.010;
while(<>){
        my @llog=split;
        $ips{$llog[0]}++;
}
for(keys %ips){
        say "$_ $ips{$_}";
}
时间: 2024-10-16 22:33:37

perl统计http日志ip的相关文章

Perl统计nginx日志信息并分析每个小时的数据

#!/usr/bin/perl # name: logcalc.pl # calc the amount of access url use strict; use warnings; use diagnostics; use File::Basename; my ($arg, $arg_only); my $FILE; my ($year, $month, $day, $mon); my ($time, $method, $url); my ($amount, $hour, $key, $va

python统计apache、nginx访问日志IP访问次数并且排序(显示前20条)

前言:python统计apache.nginx访问日志IP访问次数并且排序(显示前20条).其实用awk+sort等命令可以实现,用awk数组也可以实现,这里只是用python尝试下. apache脚本: ips = {} with open("/root/mail_access_log-20180629") as fh:     for line in fh:         ip = line.split(" ")[0]         if 6 < le

spark+kafka+redis统计网站访问者IP

*目的是为了防采集.需要对网站的日志信息,进行一个实时的IP访问监控. 1.kafka版本是最新的0.10.0.0 2.spark版本是1.61 3.下载对应的spark-streaming-kafka-assembly_2.10-1.6.1.jar放到spark目录下的lib目录下 4.利用flume将nginx日志写入到kafka(后续补充) 5.编写python脚本,命名为test_spark_collect_ip.py # coding:utf-8 __author__ = 'chenh

统计nginx日志

1.根据访问IP统计UV awk '{print $1}' access.log|sort | uniq -c |wc -l 2.统计访问URL统计PV awk '{print $7}' access.log|wc -l 3.查询访问最频繁的URL awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more 4.查询访问最频繁的IP awk '{print $1}' access.log|sort | uniq -c |sor

最简单的统计appche站点IP访问量的shell脚本

经常需要根据IP地址统计apache站点访问量,最基本的脚本. 根据IP访问量降序排列: #!/bin/bash #Script_name: access_count acc_log=/usr/local/apache2/logs/access_log /bin/awk '{print $1}' $acc_log  | sort | uniq -c | sort -nr 执行效果: [[email protected] ~]# sh access_count   94989 192.168.10

统计apache日志文件里访问量前十的ip并按从多到少排列

解法1: cat access_log | awk  ’{print $1}’ | sort | uniq -c | sort -n -r | head -10 解法2:cat access_log | awk -F “- -” ‘{print $1}’ | sort -t . | uniq -c | sort -n -r | head -10 awk ‘{a[$1] += 1;} END {for (i in a) printf(“%d %s\n”, a[i], i);}’ 日志文件 | so

shell 截取日志 统计链接数 统计日志ip

按时间段获取日志 sed -n '/22\/Dec\/2015:00/,/22\/Dec\/2015:50/p' localhost_access_log.2015-11-10.txt > /tmp/acc.www.log  sed -n '/22\/Dec\/2015:00/,/22\/Dec\/2015:50/p' localhost_access_log.2015-11-10.txt |head -3  sed -n '/22\/Dec\/2015:00/,/22\/Dec\/2015:5

统计nginx日志单IP访问请求数排名

下面是我截取一段nginx日志 127.0.0.1 - - [20/Jan/2015:10:54:02 +0800] "GET / HTTP/1.1" 200 20808 "-" "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:31.0) Gecko/20100101 Firefox/31.0" 127.0.0.1 - - [20/Jan/2015:10:54:03 +0800] "GET /fa

python 统计日志IP出现次数

cat test 218.79.251.215 - - [23/May/2006:08:57:44 +0800] "GET /fg172.exe HTTP/1.1" 206 2350253 220.178.150.3 - - [23/May/2006:08:57:40 +0800] "GET /fg172.exe HTTP/1.1" 200 2350253 59.42.2.185 - - [23/May/2006:08:57:52 +0800] "GET