nginx怎么关闭favicon.ico、robots.txt日志记录

有朋友问我,如何关闭nginx中favicon.ico、robots.txt日志记录,不允许访问某些隐藏文件。

其实,有个favicon.ico挺好的,当网页放到任务栏上可以区分出自己的网站,对用户体验也不错。

另外就是robots.txt文件用好了,对屏蔽恶意收录是很有帮助的。

nginx日志最近发生大量访问favicon.ico无法找到的404错误日志,影响服务器性能,对于一个高并发的服务器每一个错误都会影响性能,所以需要关闭访问favicon.ico的日志记录功能。

操作方法:


# 把以下配置放到 server {} 块.
#关闭favicon.ico不存在时记录日志
location = /favicon.ico {
log_not_found off;
access_log off;
} www.jbxue.com
location = /robots.txt {
allow all;
log_not_found off;
access_log off;
}
# 不允许访问隐藏文件例如 .htaccess, .htpasswd, .DS_Store (Mac).
location ~ /\. {
deny all;
access_log off;
log_not_found off;
}

时间: 2024-11-29 05:03:24

nginx怎么关闭favicon.ico、robots.txt日志记录的相关文章

nginx忽略favicon.ico日志

说明:favicon.ico占用nginx error_log日志大量信息,把我们真正需要查看的日志给覆盖.因此这里,我们通过log_not_found off关闭它. 实现://把以下配置放到 server {} 块,关闭favicon.ico不存在时记录日志 location = /favicon.ico { log_not_found off; access_log off; } //log_not_found on|off,默认为on:启用或禁用404错误日志,这个指令可以用来禁止ngi

Log4Net异常日志记录在asp.net mvc3.0的应用

前言 log4net是.Net下一个非常优秀的开源日志记录组件.log4net记录日志的功能非常强大.它可以将日志分不同的等级,以不同的格式,输出到不同的媒介.本文主要是简单的介绍如何在Visual Studio2010(Asp.Net Mvc3.0)中使用log4net快速创建系统日志,如何扩展以输出自定义字段. 用户可以从http://logging.apache.org/log4net/下载log4net的源代码.解压软件包后,在解压的src目录下将log4net.sln载入Visual

nginx下禁止访问robots.txt的设置方法

关于robots.txt文件:搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信 息.您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot 访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容. 访问,可以得知我们网站中存在/admin和/bbs,其中/admin是关于后台管理的目录,把这个路径轻易的暴漏显然是不太安全的,下面我们可以通过禁止访问.txt类型的文件来,增

nginx通过robots.txt禁止所有蜘蛛访问(禁止搜索引擎收录)

在server {} 块中添加下面的配置 location =/robots.txt { default_type text/html; add_header Content-Type "text/plain; charset=UTF-8"; return 200 "User-Agent: *\nDisallow: /"; } 在线测试robots.txt是否生效 https://ziyuan.baidu.com/robots/index robots.txt文件生

[转]网站地址栏小图标favicon.ico的制作方法

有人也许会好奇,有的网址前面有个漂亮的小图标而且有的网站图标还会动,这是怎么做到的呢? 如下图所示: 那个小图标有个名字叫favicon.ico,网站图标虽小但可以起到很好的点缀作用,尤其是当浏览者将你的网站放入收藏夹之后,网站图标的作用就出来了,它可以使你的站点在众多网址中突出显示,对于用户体验起到很好的作用,好了,废话不多说,现在来告诉大家怎么做favicon.ico这个网站图标文件. 虽然现在有很多在线制作网站图标的网站,但制作出来的图标实在是差强人意,而且不支持透明样式的ico,这非常糟

robots.txt用法

主要作用是告诉蜘蛛爬虫该网站下哪些内容能抓取,哪些内容不能抓取.虽然可以没有robots.txt这个文件,默认就抓取该网站的所有文件,对搜索引擎爬虫没有任何的影响,但是如果你想控制蜘蛛的检索间隔,你就必须用robots.txt来控制. robots.txt不是一种规范,是约定俗成的,主流的搜索引擎都是遵循robots.txt的规则来索引页面,但是一些spam爬虫不会遵循,所以说robots.txt只能防君子,不能防小人,如果目录下有隐私的文件夹,建议设置密码或者登陆用户才能访问. robots.

Django中favicon.ico文件的配置

默认情况下,浏览器访问一个网站的时候,同时还会向服务器请求“/favicon.ico”这个URL,目的是获取网站的图标. 若没有配置的话,Django就会返回一个404错误,并且浏览器接收到这个404错误后不会显示出来,一般不会被察觉. 但是服务器要是开启日志记录的话,这错误就会一直记录下来,累积一大堆无用的记录. 步骤如下: 制作一个ico文件,使用PS或者某些在线生成ico的网站即可 将此文件命名为“favicon.ico”后放在static/下 在url.py中添加: from Djang

Apache中 File does not exist: /var/www/html/favicon.ico

今天搭建lamp架构的电子商务网站,突然间发现/var/log/httpd/errorlog报错了[Sat Jul 12 09:14:53 2012] [error] [client 192.168.1.152] File does not exist: /var/www/html/favicon.ico[Sat Jul12 09:25:19 2012] [error] [client 192.168.1.152] File does not exist: /var/www/html/favic

Robots.txt 协议详解及使用说明

一.Robots.txt协议 Robots协议,也称为爬虫协议.机器人协议等,其全称为“网络爬虫排除标准(Robots Exclusion Protocol)”.网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取.也既是Robots的用法有两种,一种是告诉搜索引擎哪些页面你不能抓(默认其他的就可以抓):一种是告诉搜索引擎你只能抓取哪些页面(默认其他的不可以抓). 当一个搜索机器人(蜘蛛)访问一个站点时,它会首先检查网站根目录下是否存在robots.txt,如果存在,就会按照文