利用WebLog Experet分析日志获取性能需求

一、下载WebLog Expert日志分析工具

官网下载地址:http://www.weblogexpert.com/download.htm

二、安装

安装很简单,点击“下一步”默认安装即可

三、配置tomcat,自动生成访问日志(localhost_access_YYYY_MM_dd.log)

Tomcat默认情况下是没有开启自动生成访问日志,也就是说在tomcat/logs目录下没有类似access.log的日志文件,开启tomcat访问日志需要修改tomcat/conf/server.xml

方式一:去掉server.xml文件中以下配置的注释,pattern模式修改为combined

方式二:直接在server.xml文件中添加以下配置

<Valve className="org.apache.catalina.valves.AccessLogValve"
               directory="logs"  prefix="localhost_access_log." suffix=".txt"
               pattern="combined" fileDateFormat="yyyy-MM-dd" resolveHosts="false"/>

四、利用WebLog Expert工具生成访问日志报告

1.创建新建项目

备注:如果不知道网站地址,可以写localhost

2.选择日志文件、文件类型、路径

备注:这里选择本地日志文件

3.分析时间范围选择所有活动范围

4.添加跟踪文件(也可不添加,点击下一步即可)

5.添加过滤分析日志文件

6.指定分析日志报告路径,完成。

五、分析日志获取性能需求

  1.General Statistics-Summary

提取信息:

Average Hits per Day(平均每天点击次数):点击数大,对服务器压力就越大。

Cached Requests(缓存请求):缓存请求数少,说明需要提高系统缓存。

Average Page Views per Day(平均每天访问页面次数):访问页面次数越多,对服务器性能压力就越大。

Average Visitors per Day(平均每天访问人数):平均每天访问人数=平均每天在线人数。

Average Bandwidth per Day(平均每天带宽流量)/7200:此公式可以计算出高峰时每秒的带宽(Kb/s),即吞吐量峰值。

  2.Activity Statistics

Daily Visitors:取峰值,高峰并发数=峰值*10%

Daily Hits:取峰值

Daily Bandwidth:取峰值

Activity by Hour of Day关注峰值在哪个时间段,以及持续多少个小时

  3.Access Statistics

Daily Page Acces、Most Popular Pages:根据频繁访问最多的页面确定性能测试场景。

Daily Image Access、Most Requested Images:根据频繁访问的图片确定性能测试点,并且可以参考这些图片优化前端性能。

  4.Errors

Daily Error Types:查看具体错误码及错误请求链接,并反馈给开发人员。

时间: 2024-10-11 21:28:13

利用WebLog Experet分析日志获取性能需求的相关文章

datastage 分析日志获取表记录条数

DataStage通过分析日志获取Job插入目标表的记录数 这只是一种不太好的方法,也许还有更好.更简便的方法.这种方法要求每次运行Job之前删除已有的日志信息,否则无法统计出正确的记录数.当然,在Job跑完之后,可以在shell备份本次Job运行的日志到服务器磁盘. 1       日志清理设置 登录Datastage Administrator,选择对应项目,项目属性->记录,勾选"自动清除作业日志",设置为自动清理上次及以前的日志. Figure 1 Administrat

Linux分析日志获取最多访问的前10个IP

原文地址:http://xuqq999.blog.51cto.com/3357083/774714 apache日志分析可以获得很多有用的信息,现在来试试最基本的,获取最多访问的前10个IP地址及访问次数. 既然是统计,那么awk是必不可少的,好用而高效. 命令如下: awk '{a[$1] += 1;} END {for (i in a) printf("%d %s\n", a[i], i);}' 日志文件 | sort -n | tail 首先用awk统计出来一个列表,然后用sor

linux下利用elk+redis 搭建日志分析平台教程

linux下利用elk+redis 搭建日志分析平台教程 http://www.alliedjeep.com/18084.htm elk 日志分析+redis数据库可以创建一个不错的日志分析平台了,下面我们来看一篇在linux下利用elk+redis 搭建日志分析平台教程,希望例子对各位有帮助. 这个是最新的elk+redis搭建日志分析平台,今年时间是2015年9月11日. Elk分别为 elasticsearch,logstash, kibana 官网为:https://www.elasti

python 分析android日志获取activit加载时间

最近有个需求,需要对比前后两个版本单个activity加载的时间 在android日志中我们可以看到类似INFO/ActivityManager(2486): Displayed activity com.teleca/.ContextMenuActivity: 240 ms (total 41289 ms)的日志,即为Activity的加载时间 首先通过adb logcat > xx.txt获取日志,然后用如下代码分析日志: #-*-coding:utf-8 -*- # 分析android a

应用系统如何分析和获取SQL语句的执行代码

大部分开发人员都有这样一个需求,在程序连接数据库执行时,有时需要获取具体的执行语句,以便进行相关分析,这次我向大家介绍一下通用权限管理系统提供的SQL语句执行跟踪记录,直接先看看代码吧:(这个功能我也是在看底层代码时发现的) namespace DotNet.Utilities { /// <summary> /// SQLTrace /// 记录SQL执行 Global 中设置 BaseSystemInfo.LogSQL=true 可以开启跟踪记录 /// /// /// 修改纪录 ///

利用ArcGIS水文分析工具提取河网

转自原文 利用ArcGIS水文分析工具提取河网(转) DEM包含有多种信息,ArcToolBox提供了利用DEM提取河网的方法,但是操作比较烦琐(帮助可参看Hydrologic analysis sample applications),今天结合我自己的使用将心得写出来与大家分享.提取河网首先要有栅格DEM,可以利用等高线数据转换获得.在此基础上,要经过洼地填平.水流方向计算.水流积聚计算和河网矢量转化这几个大步骤. 1.洼地填平 DEM洼地(水流积聚地)有真是洼地和数据精度不够高所造成的洼地.

如何利用数据挖掘进行分析的方法

ps:作为目前人工智能和数据库领域研究的热点问题,数据挖掘从数据库的大量数据中揭示出隐含的.先前未知的并有潜在价值的信息的非平凡过程. 数据挖掘(Data Mining,DM),又称数据库中的知识发现(Knowledge Discover in Database,KDD),是目前人工智能和数据库领域研究的热点问题,所谓数据挖掘是指从数据库的大量数据中揭示出隐含的.先前未知的并有潜在价值的信息的非平凡过程.数据挖掘是一种决策支持过程,它主要基于人工智能.机器学习.模式识别.统计学.数据库.可视化技

简单安装ELK分析日志及使用心得

ELK是由Elasticsearch.Logstash.Kibana三个组件组成的.Elasticsearch:是ELK的核心插件,是一个基于Lucene的搜索服务器,它提供一个分布式多用户能力的全文搜索引擎,能够达到实时搜索,稳定,可靠,快速,安装方便.Elasticsearch服务会开启两个端口,9200和9300,其中9200是对外服务的,9300是对集群内交互使用的.Logstash:日志收集工具,可以从本地磁盘,网络服务(自己监听端口,接受用户日志),消息队列中收集各种各样的日志.然后

Python 利用 BeautifulSoup 爬取网站获取新闻流

0. 引言 介绍下 Python 用 Beautiful Soup 周期性爬取 xxx 网站获取新闻流: 图 1 项目介绍 1. 开发环境 Python: 3.6.3 BeautifulSoup:   4.2.0 , 是一个可以从HTML或XML文件中提取数据的Python库* ( BeautifulSoup 的中文官方文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/ ) 2. 代码介绍 实现主要分为三个模块: 1. 计时