日志分析统计PV UV 独立IP

pv一般都是统计指定页面的点击量,这里用首页来计算

grep "/index.php" /var/log/nginx/access.log | wc -l

uv是统计指定页面上真是访问的用户,也就是说同一ip 不管点击多少次都算一个uv

grep "/index.php" /var/log/nginx/access.log | awk ‘{print $1}‘| sort | uniq | wc –l

独立ip是统计不管用户点击那个url只要有浏览,就算一个独立ip 但是和uv 一样,相同ip的多次浏览只能算一个独立ip

cat /var/log/nginx/access.log | awk ‘{print $1}’| sort | uniq | wc –l
时间: 2024-08-06 16:05:16

日志分析统计PV UV 独立IP的相关文章

网站流量分析指标-PV/UV/PR/IP

网站数据分析,经常会统计一个页面或者一个网站或者其他情况的PV/UV.下面简单说一下,这些量PV/UV/PR/IP. 1.PV PV(page view),即页面浏览量,或点击量.通常是衡量一个网络新闻频道或网站甚至一条网络新闻的主要指标. 用户对一个页面A进行一次刷新(按F5)或者一次通过网址访问,该页面A的pv就会增加1. 2.UV UV(unique visitor),即独立访客数.指访问某个站点或点击某条新闻的不同访客人数. 一日内访问某个网站或者网页的不同用户数量.  同一个用户对一个

网站流量分析指标PV/UV说明

PV [可通过http://www.alexa.cn 查询一个网站的PV] PV(page view),即页面浏览量,或点击量.通常是衡量一个网络新闻频道或网站甚至一条网络新闻的主要指标. 用户对一个页面A进行一次刷新(按F5)或者一次通过网址访问,该页面A的pv就会增加1.用户对同一页面的多次访问,访问量值累计 UV UV(unique visitor),即独立访客数.指访问某个站点或点击某条新闻的不同访客人数.将每个独立上网电脑(以cookie为依据)视为一位访客,一天之内(00:00-24

一文解读PV/UV/VV/IP (转)

什么是PV? PV即Page View,网站浏览量,指页面浏览的次数,用以衡量网站用户访问的网页数量.用户每次打开一个页面便记录1次PV,多次打开同一页面则浏览量累计.一般来说,PV与来访者的数量成正比,但是PV并不直接决定页面的真实来访者数量,如同一个来访者通过不断的刷新页面,也可以制造出非常高的PV.具体的说,PV值就是所有访问者在24小时(0点到24点)内看了某个网站多少个页面或某个网页多少次.PV是指页面刷新的次数,每一次页面刷新,就算做一次PV流量. 度量方法就是从浏览器发出一个对网络

日志分析   取出访问最多的IP,URL,以及五分钟内的访问流量

日志分析! 对最近五分钟的日志进行分析,取出访问最多的IP,URL,以及五分钟内的访问流量 #!/bin/sh name=`cat /etc/salt/minion | grep "^id" | awk '{print $2}'` ipaddr=`/sbin/ifconfig | grep "inet addr" | egrep -v "10\.|127\." | awk  -F'[: ]+' '{print $4}'` #LogPath='/u

实时统计每天pv,uv的sparkStreaming结合redis结果存入mysql供前端展示

最近有个需求,实时统计pv,uv,结果按照date,hour,pv,uv来展示,按天统计,第二天重新统计,当然了实际还需要按照类型字段分类统计pv,uv,比如按照date,hour,pv,uv,type来展示.这里介绍最基本的pv,uv的展示. id uv pv date hour 1 155599 306053 2018-07-27 18 关于什么是pv,uv,可以参见这篇博客:https://blog.csdn.net/petermsh/article/details/78652246 1.

Linux服务器access_log日志分析及配置详解(二)

默认nginx / Linux日志在哪个文件夹? 一般在 xxx.xxx.xxxx.com/home/admin 路径下面的error.log文件和access.log文件error_log logs/error.log; #错误日志access_log logs/access.log; #访问日志 1. access_log 访问日志 access_log为访问日志,记录所有对apache服务器进行请求的访问,它的位置和内容由CustomLog指令控制,LogFormat指令可以用来简化该日志

实时海量日志分析系统的架构设计、实现以及思考

1 序 对ETL系统中数据转换和存储操作的相关日志进行记录以及实时分析有助于我们更好的观察和监控ETL系统的相关指标(如单位时间某些操作的处理时间),发现系统中出现的缺陷和性能瓶颈. 由于需要对日志进行实时分析,所以Storm是我们想到的首个框架.Storm是一个分布式实时计算系统,它可以很好的处理流式数据.利用storm我们几乎可以直接实现一个日志分析系统,但是将日志分析系统进行模块化设计可以收到更好的效果.模块化的设计至少有两方面的优点: 模块化设计可以使功能更加清晰.整个日志分析系统可以分

【处理多服务器日志合并处理问题】多服务器的日志合并统计——apache日志的cronolog轮循

转发:http://www.chedong.com/tech/rotate_merge_log.html 内容摘要:你完全不必耐心地看完下面的所有内容,因为结论无非以下2点:1 用 cronolog 干净,安全地轮循apache"日"志2 用 sort -m 合并排序多个日志或者用: clfmerge合并日志 根据个人的使用经历:1 先介绍apache日志的合并方法:2 然后根据由此引出的问题说明日志轮循的必要性和解决方法,介绍如何通过cronolog对apache日志进行轮循:中间有

MySQL慢查询(二) - pt-query-digest详解慢查询日志 pt-query-digest 慢日志分析

随笔 - 66 文章 - 0 评论 - 19 MySQL慢查询(二) - pt-query-digest详解慢查询日志 一.简介 pt-query-digest是用于分析mysql慢查询的一个工具,它可以分析binlog.General log.slowlog,也可以通过SHOWPROCESSLIST或者通过tcpdump抓取的MySQL协议数据来进行分析.可以把分析结果输出到文件中,分析过程是先对查询语句的条件进行参数化,然后对参数化以后的查询进行分组统计,统计出各查询的执行时间.次数.占比等