简单实现取访问日志的IP

cat bbs.access.2014-05-01.log  | awk ‘{print $1}‘ | sort -n  | uniq -c | sort -n | tac | head -n 10

cat bbs.access.2014-05-01.log  | awk ‘{print $1}‘ | sort -n  | uniq -c | sort -n | tail -n 10

cat bbs.access.2014-05-01.log  | awk ‘{print $9}‘ | sort -n | uniq -c

[[email protected] ~]# awk ‘{print $1}‘  access_2010-12-8.log| sort -n  | uniq -c |sort -nr -k1

9 59.33.26.105

8 124.115.4.18

3 123.122.65.226

[[email protected] ~]# awk ‘{print $1}‘  access_2010-12-8.log| sort -n  | uniq -c |sort -n|tac

9 59.33.26.105

8 124.115.4.18

3 123.122.65.226

NAME

tac - concatenate and print files in reverse    #在反向连接和打印文件

-r, --regex

interpret the separator as a regular expression  #解释分离器作为一个正则表达式

时间: 2024-10-07 05:35:19

简单实现取访问日志的IP的相关文章

nginx日志之错误日志及访问日志及日志分割

一.nginx错误日志 nginx软件会把自身运行的故障信息及用户访问的日志信息记录到指定的日志文件里 一般在nginx.conf配置文件第二行添加:error_log    logs/error.log    error : ↓                  ↓                  ↓ 关键字             日志文件       日志级别 其实如果不添加这行的话,默认就是这样 关于日志级别: 错误日志常见的级别有 :debug | info|notice | war

统计Apache或Nginx访问日志里的独立IP访问数量的Shell

1.把IP数量直接输出显示: cat access_log_2011_06_26.log |awk '{print $1}'|uniq -c|wc -l 2.把IP数量输出到文本显示: cat access_log_2011_06_26.log |awk '{print $1}'|uniq -c|wc -l > ip.txt 总结:如果单个访问日志大小超过2G,用这个命令查看时很占系统资源,系统负载会上升:所以在服务器高负载时不要查看,最好在低负载时间段查看.上面截图是公司其中一台广告服务器的一

老男孩教育每日一题-2017年4月26日-通过访问日志access.log统计IP和每个地址访问的次数

通过访问日志access.log统计IP和每个地址访问的次数 101.226.61.184 - - [22/Nov/2015:11:02:00 +0800] "GET /mobile/sea-modules/gallery/zepto/1.1.3/zepto.js HTTP/1.1" 200 24662 "http://m.oldboyedu.com/mobile/theme/oldboyedu/home/index.html" "Mozilla/5.0 

日志分析   取出访问最多的IP,URL,以及五分钟内的访问流量

日志分析! 对最近五分钟的日志进行分析,取出访问最多的IP,URL,以及五分钟内的访问流量 #!/bin/sh name=`cat /etc/salt/minion | grep "^id" | awk '{print $2}'` ipaddr=`/sbin/ifconfig | grep "inet addr" | egrep -v "10\.|127\." | awk  -F'[: ]+' '{print $4}'` #LogPath='/u

ip列表中找到具体某个ip的所有访问日志并生成对应的文件

#!/bin/sh # 功能:从ip列表中找到具体某个ip的所有访问日志并生成对应的文件 #      # mkdir  handle > com.ip.txt function handle(){         #echo "egrep "$1"  0602.log  > handle/$n.txt"         egrep "$1"  0602.log  > handle/$1.txt         time=`wc

Python基于nginx访问日志并统计IP访问量

如果想看看Nginx有多少IP访问量,有哪些国家访问,并显示IP地址的归属地分布,python可以结合使用高春辉老师ipip.net[免费版 IP 地址数据库],Shell可以使用nali,我这边主要使用python语言来实现需求,并将查询结果以邮件形式发送,也是为了学习和回顾python语言.很感谢高春辉老师提供的免费版IP地址数据库. 一.Ningx日志如下: 41.42.97.104 - - [26/Feb/2015:03:35:40 -0500] "GET /root/ HTTP/1.1

你用pig分析access_log日志中ip访问次数

环境说明: os版本:rhel5.7 64位 hadoop版本:hadoop-0.20.2 hbase版本:hbase-0.90.5 pig版本:pig-0.9.2 访问日志文件,下载文章中的附件! 日志放在本地目录路径为:/home/hadoop/access_log.txt 日志格式为: 220.181.108.151 - - [31/Jan/2012:00:02:32 +0800] "GET /home.php?mod=space&uid=158&do=album&

(总结)统计Apache或Nginx访问日志里的独立IP访问数量的Shell

1.把IP数量直接输出显示:cat access_log_2011_06_26.log |awk '{print $1}'|uniq -c|wc -l 2.把IP数量输出到文本显示:cat access_log_2011_06_26.log |awk '{print $1}'|uniq -c|wc -l > ip.txt 总结:如果单个访问日志大小超过2G,用这个命令查看时很占系统资源,系统负载会上升:所以在服务器高负载时不要查看,最好在低负载时间段查看.上面截图是公司其中一台广告服务器的一天i

python统计apache、nginx访问日志IP访问次数并且排序(显示前20条)

前言:python统计apache.nginx访问日志IP访问次数并且排序(显示前20条).其实用awk+sort等命令可以实现,用awk数组也可以实现,这里只是用python尝试下. apache脚本: ips = {} with open("/root/mail_access_log-20180629") as fh:     for line in fh:         ip = line.split(" ")[0]         if 6 < le