Nginx日志过滤 使用ngx_log_if不记录特定日志

ngx_log_if是Nginx的一个第三方模块。它在Github上的描述是这样介绍的:ngx_log_if是一个独立的模块,允许您控制不要写的访问日志,类似于Apache的"CustomLog env = XXX"

第一步:

先到Github下载ngx_log_if地址https://github.com/cfsego/ngx_log_if/

第二步:

安装第三方模块到Nginx。第三方模块的安装可以参考http://wiki.nginx.org/3rdPartyModules 使用--add-module添加解压后的ngx_log_if如下

./configure --add-module=/var/local/ngx_log_if-master

然后再编译安装Nginx即可。

第三步:

配置access_log_bypass_if到nginx.conf配置文件中

server {
    location / {
        access_log_bypass_if ($status = 404); #不记录404状态的所有日志信息
        access_log_bypass_if ($uri ~* 'images'); #不记录uri中所有images目录下文件的日志信息
        access_log_bypass_if ($uri = '/index.html'); #不记录uri为/index.html的日志信息
	access_log_bypass_if ($host ~* 'tonv.cc'); #不记录host为tonv.cc的所有日志信息
    }
}

重启Nginx即可过滤不显示特定的日志了

Nginx日志过滤 使用ngx_log_if不记录特定日志,布布扣,bubuko.com

时间: 2024-10-13 14:30:50

Nginx日志过滤 使用ngx_log_if不记录特定日志的相关文章

SpringBoot使用AOP记录请求日志和异常日志

本文基础WEB环境使用SpringBoot及Spring-Data-Jpa构建 关于SpringBoot及JPA用法本文不再过多讨论,下面是引入的jar: 起步依赖 web及aop依赖 jpa依赖 mysql驱动 本文着重AOP的使用,你也可以使用自己构建的环境 由于本文中使用的JPA,因此首先创建保存日志及保存异常的实体类,如果你使用的是Mybatis,则需要首先创建表然后根据表来逆向生成实体类 保存日志的实体类: 日志实体 保存异常的实体类: 异常实体 接下来我们定义一个Operation注

Nginx 指定不产生日志类型(不记录图片日志)

在主配置文件中已经定义了配置文件的格式 [[email protected] ~]# vim /usr/local/nginx/conf/nginx.conf  # nginx 中的配置修改 日志命名格式 log_format combined_realip '$remote_addr $http_x_forwarded_for [$time_local]' '$host "$request_uri" $status' '"$http_referer" "

nginx 日志过滤网络爬虫访问日志

nginx里面有很多的爬虫日志,会影响到后期的数据分析,所以一般会去掉. nginx排除配置: location / {                           #去掉爬虫 Start                           if ($http_user_agent ~* "bot|spider") {                                  access_log off;                            }   

MVC 记录操作日志与过滤特殊字符

最近进行的MVC系统需要用到记录操作日志和过滤特殊字符的功能,如果每个action中都调用记录日志的方法就太麻烦了,所以根据需要结合mvc的过滤机制 写了个特殊字符验证与记录操作日志的公用类: 1 public class CustomFilterAttribute : ActionFilterAttribute 2 { 3 public CustomFilterAttribute() 4 { 5 IsLog = false; 6 FilterSpecialChar = true; 7 } 8

Linux下定时切割nginx日志并删除指定天数前的日志记录

nginx的log日志分为access.log和error.log:其中access.log 记录了哪些用户.哪些页面以及用户浏览器.ip和其他的访问信息:error.log则是记录服务器错误日志. error.log日志的形式如下: 201.158.69.116 - - [03/Jan/2013:21:17:20 -0600] fwf[-] tip[-] 127.0.0.1:9000 0.007 0.007 MX pythontab.com GET /html/test.html HTTP/1

ELK 日志管理系统,再次尝试记录

简介: 第二次尝试 ELK 记录... 工作流程: 1.客户端的 Logstash 将日志信息采集到之后传输给 Redis 做消息队列 2.然后服务端的 Logstash 将日志从 Redis 中取出之后根据日志规则将数据序列化( 方便查询 )完成后存入 Elasticsearch 文本数据库中 3.最后通过 Kibana 展示数据,可以根据序列化好的数据做查询过滤.数据聚合等操作 环境描述: 192.168.214.20 服务端( Logstash .Elasticsearch .Redis

使用Nginx和Logstash以及kafka来实现网站日志采集的详细步骤和过程

使用Nginx和Logstash以及kafka来实现网站日志采集的详细步骤和过程 环境介绍: linux虚拟机3台,主机名分别为hadoop01.hadoop02和hadoop03; 在这3台虚拟机上分别部署了3个Zookeeper,这里Zookeeper的具体安装步骤不做介绍; 在这3台虚拟机上分别部署了3个kafka,这里kafka的具体安装步骤也不做介绍; 我们在hadoop02这台机器上安装一个Logstash,其安装过程非常简单,解压既可使用; ====================

MySQL 二进制日志过滤

binlog_do_db; binlog_ignore_db; 这个两个参数是用来控制对哪个数据库的更改要记录日志:下面以binlog_ignore_db为例子. 假如binlog_ignore_db=studio; use studio; insert into t(x,y) values(1,1),(2,2);--这个是不会记录二进制日志的.因为它的执行上下文是studio. use studio;insert into test.t(x,y) values(3,3),(4,4);--同理这

secilog 1.16 发布 增加了集群,离线日志导入,日志过滤和归并等

日志分析软件 secilog 1.16发布,增加了集群,离线日志导入,日志过滤和归并,日志管理,配置管理等.上篇文章1.15,有兴趣可以了解一下.本次升级主要增加以下功能: 集群 主要是采集器可以分布式集群部署,支持横向扩展,理论上支持海量数据. 配置文件中增加了两项: secilog.master=true采集器主从节点标志,当是从节点的时候,内容要修改成false master.ip= 当采集器是从节点的时候,需要指定主节点的ip,同时要确保系统7017,7018端口畅通. 离线日志导入 离