用shell分析nginx日志百度网页蜘蛛列表页来访情况

#!/bin/bash
#desc: this scripts for baidunews-spider
#date:2014.02.25
#testd in CentOS 5.9 x86_64
#saved in /usr/local/bin/baidu-web.sh
#written by [email protected] www.zjyxh.com
dt=`date -d "yesterday" +%m%d`
if [ $1x != x ] ;then
  if [ -e $1 ] ;then
     grep -i "Baiduspider/2.0" $1 > baiduspider-${dt}.txt
     num=`cat baiduspider-${dt}.txt|wc -l`
     echo "baiduspider number is ${num},file is baidu-${dt}.txt"
     cat baiduspider-${dt}.txt|awk ‘{print $7}‘|sort |uniq -c|sort -r >`ls ${1}|cut -c 1-10`-${dt}.txt
     echo "$1 was done"
    else
       echo "$1 not exsist!"
  fi
else
     echo "usage: $0 file_path"
fi

本次用shell分析百度网页蜘蛛跟百度新闻蜘蛛一个方法,无非就是把关键词由baiduspider-news换为baiduspider/2.0。

时间: 2024-10-11 03:36:06

用shell分析nginx日志百度网页蜘蛛列表页来访情况的相关文章

shell分析nginx日志

以下脚本都是基于上面日志格式的,如果你的日志格式不同需要调整awk后面的参数. 分析日志中的UserAgent cat access_20130704.log | awk -F "\"" '{print $(NF-3)}' | sort | uniq -c | sort -nr | head -20 上面的脚本将分析出日志文件中最多的20个UserAgent 分析日志中那些IP访问最多 cat access_20130704.log | awk '{print $1}' |

shell 分析 nginx 日志统计

1.统计ip访问量前10的 ip地址 cat access.log | awk '{print $1}' | sort | uniq -c | sort -nr | head -n 10 2.查看当天ip访问量统计 cat access.log  |grep "21/Apr/2016" |awk '{print $1}'|sort|uniq -c|sort -nr 3.查看访问前10的页面统计 cat access.log | grep "21/Apr/2016"

shell脚本分析nginx日志

第一版,比较粗糙,仅限于能用 正在写入的文件不能用tar进行压缩 --------压缩日志---------------------- 94 access.log 95 tar: access.log: file changed as we read it 96 #### 压缩日志失败 #### #!/bin/sh #分析nginx日志 DATE=`date '+%Y%m%d-%H%M'` ARCHIVE=/usr/log_bak/nginx_$DATE.tar.gz MESSAGE=/usr/

烂泥:利用awstats分析nginx日志

昨天把nginx的日志进行了切割,关于如何切割nginx日志,可以查看<烂泥:切割nginx日志>这篇文章. 今天打算分析下nginx日志,要分析nginx日志,我们可以通过shell脚本和第三方软件awstats进行分析,在此我们选择的是通过第三方软件awstats进行分析. 要使用awstats分析nginx日志,我们要安装awstats,而在安装awstats之前,我们需要先来介绍下awstats是什么? 一.awstats是什么 awstats是一个免费非常简洁而且强大有个性的基于Pe

awstats分析nginx日志文件

awstats分析nginx日志文件,将生成的结果(为txt文件)保存在/var/www/awstats目录下,通过apche来 显示生成的结果. nginx的域名为:www.a.com:80 LogFile="/usr/local/mybin/nginx/logs/access.log"  #nginx的日志文件路径 DirData="/var/www/awstats/" #awstats生成结果的保存路径 SiteDomain="www.a.com&q

python分析nginx日志

问题:分析nginx日志并找出访问最多10个IP地址的来源以及次数 使用python模块IP 使用方法以及下载地址:https://pypi.python.org/pypi/17MonIP 相关python脚本: #!/usr/bin/env python #coding:utf8 #Auth: lad #date:2016-12-05 #desc:parser the nginx's log,the head of 10  import sys reload(sys) sys.setdefau

python 正则分析nginx日志

有个需求要分析nginx日志,也懒得去研究logstach之类的开源工具,干脆直接写一个脚本,自己根据需求来实现: 先看日志格式:我们跟别人的不太一样,所以没办法了: 12.195.166.35 [10/May/2015:14:38:09 +0800] "list.xxxx.com" "GET /new/10:00/9.html?cat=0,0&sort=price_asc HTTP/1.0" 200 42164 "http://list.zhon

将nginx日志中的蜘蛛记录删除掉

#!/bin/sh if [ -r $1 ]; then     #Delete Baiduspider     baidu=$(grep -c 'Baiduspider' $1)     if [ $baidu -gt 0 ]; then         sed -i '/Baiduspider/d' $1         echo "match Baiduspider $baidu line."     else         echo "Baiduspider not

awk分析nginx日志中响应时间的方法

针对响应时间慢的问题,我们在nginx日志格式中增加响应时间,现在需要针对响应时间进行分析,查找出相对较慢的响应时间. 1.确认下日志文件格式 日志格式: log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_sent "$http_referer" ' '"$http_user_agent" $http_x_for