如何分析网站日志文件

很多新手站长对于如何分析网站日志文件一筹莫展,打开.log日志文件看到的只有密密麻麻的数字和字母,细看能看出是什么含义,但是想要系统科学的去进行分析太耗时间,这时一般只能借助于第三方日志分析软件,而下面介绍一种不需要下载日志分析软件即可很有效率地分析log文件的方法:

步骤一:下载你的网站日志文件并打开,选择编辑替换功能,将空格替换成英文逗号;

步骤二:打开替换好的日志文件选择文件另存为,保存类型改成所有文件,文件名后缀为csv,比如log.csv,然后点击保存;

步骤三:新建一个excel表格并打开,选择文件,然后打开刚刚保存的log.csv;

步骤四:去除不必要的信息,比如B、C、E、H、I,保留来访IP、蜘蛛爬行时间、爬行链接、返回状态吗、蜘蛛类型这些信息;

步骤五:进行信息筛选。比如选中蜘蛛类型那一列,先选择各人对应excel表格上的筛选按钮,会出现一个倒挂的三角,然后点击这个三角进行筛选,比如选择sogou蜘蛛,那么所有关于 sogou蜘蛛的爬行轨迹全会显示出来。

原本杂乱的网站日志文件经过科学的分解插入到excel表格当中,复杂的问题瞬间简单化。

时间: 2024-10-29 19:07:53

如何分析网站日志文件的相关文章

awstats分析nginx日志文件

awstats分析nginx日志文件,将生成的结果(为txt文件)保存在/var/www/awstats目录下,通过apche来 显示生成的结果. nginx的域名为:www.a.com:80 LogFile="/usr/local/mybin/nginx/logs/access.log"  #nginx的日志文件路径 DirData="/var/www/awstats/" #awstats生成结果的保存路径 SiteDomain="www.a.com&q

分析ngnix日志文件的开发程序记录

package com.school.statistics; import java.io.BufferedReader; import java.io.BufferedWriter; import java.io.File; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.FileOutputStream; import java.io.IOException; impor

在Linux上使用logwatch分析监控日志文件

原文:http://seanlook.com/2014/08/23/linux-logwatch-usage/ 1. 介绍 在维护Linux服务器时,经常需要查看系统中各种服务的日志,以检查服务器的运行状态. 如登陆历史.邮件.软件安装等日志.系统管理员一个个去检查会十分不方便:且大多时候,这会是一种被动的检查,即只有在发现系统运行异常时才会想到去查看 日志以获取异常的信息.那么如何主动.集中的分析这些日志,并产生报告,定时发送给管理员就会显得十分重要. logwatch 是一款用 Perl 语

使用Mtools分析MongoDB日志文件

一 Mtools介绍 mtools是一组用来解析和过滤MongoDB日志文件的脚本.mtools包括以下几个工具: mlogfilter    可以根据时间切割日志文件,过滤慢查询等 mloginfo      返回日志文件信息,比如开始和结束时间等 mplotqueries   对日志文件进行视图展现 mlogvis      创建一个自定义html文件交互式展现 mlaunch      快速搭建本地测试环境,包括复制集合分片系统 mtools是用python写的,需要python2.6或者

分析IIS日志文件

"D:\Program Files (x86)\Log Parser 2.2\logparser.exe" "SELECT * FROM 'D:\u_ex160405.log' to MyMVC_WebLog" -i:IISW3C -o:SQL -oConnString:"Driver={SQL Server};server=RPBPC7OICVYFNTK\MSSQL2008R2;database=MyTestDb;Integrated Security=

Nginx 分析access日志文件

Nginx Access Log日志统计分析常用命令 IP相关统计 统计IP访问量 awk '{print $1}' access.log | sort -n | uniq | wc -l 查看某一时间段的IP访问量(4-5点) grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l 查看访问最频繁的前100个IP awk '{print $1}' access

ELK 分析nginx日志文件

注意:修改配置后建议重新创建index 1.nginx 日志文件格式 log_format elk "$http_clientip | $http_x_forwarded_for | $time_local | $request | $status | $body_bytes_sent | "  "$request_body | $content_length | $http_referer | $http_user_agent | "  "$http_c

网站日志分析工具:WebLog Expert Lite

WebLog Expert Lite,它是一款专门用来分析网站日志文件的软件,可以对网站的来访者进行详细分析,包括当前活动会话统计.文件存取统计.搜索使用情况统计.浏览器/操作系统统计.错误统计等.然后生成HTML形式的表格和图表PDF报告方便各站长对网站各种情况有一个直观的了解. 下载,现在已经到9.2了,直接下一步就安装好了 1.首先下载WebLog Expert Lite和中文语言安装包,地址为:http://www.weblogexpert.com/download.htm 2. 直接打

HDInsight-Hadoop实战(一)网站日志分析

HDInsight-Hadoop实战(一)网站日志分析 简介 在此示例中,你将使用分析网站日志文件的 HDInsight 查询来深入了解客户使用网站的方式.借助此分析,你可查看外部网站一天内对该网站的访问频率以及用户体验的网站错误总结. 在此教程中,你将学习如何使用 HDInsight: 连接到包含网站日志文件的 Azure Storage Blob 创建配置单元表以查询这些日志 创建配置单元查询以分析数据 使用 Microsoft Excel 连接到 HDInsight(使用 ODBC 连接)