蜘蛛禁止访问文件

http://blog.sina.com.cn/s/blog_5b5790f10100vala.html

建好后什么结构与内容都没有确定好之前,我怎么去屏蔽搜索引擎蜘蛛不来访问我的网站,不收录我的网站,这样才不会给我的网站造成损失,其实这样的问题再百度也有很多种回答,可能是由于答案太多太乱的缘故,有很多的人都找不到比较权威的回答,前面我们在文章里讲到一些新手SEO推广建站需注意的问题里面没有讲到关于屏蔽蜘蛛的这一项,现在为大家介绍一下,总体的给大家归纳一下吧!在这里给大家介绍两种方法,如下:一、创建robots.txt文件,并将文件放置在网站根目录。 文件的内容如下: 1、禁止所有搜索引擎访问网站的任何部分 User-agent: * Disallow: / 大家知道为什么要创建一个robots.txt的文件吗,也许有很多的都知道建立这个文件就可以屏蔽蜘蛛的访问,不让搜索引擎抓取到自己的网站。在这里我想告诉你的是,不管任何的搜索引擎他来到了你的网站。首先访问的就是你的robots.txt日志文件,当你在robots.txt里设置权限不让搜索引擎访问,那么蜘蛛也会遵守互联网的协议进行返回,这就是为什么我们要建立robots.txt文析的原因。 二、在模版的header.php的文件时添加一段代码,因为蜘蛛来到你的网站是由上到下访问的,所以刚开始访问到的肯定是从header<顶部>开始抓取。所以如果我们在顶部里设置好屏蔽蜘蛛的访问代码后,蜘蛛也会跟第一条一样遵守协议返回。屏蔽蜘蛛访问代码如下:<meta name=”Robots” content=”noindex,nofollow”> 通过以上两种方法的话,我们基本上可以屏蔽搜索引擎蜘蛛访问到我们的网站,这样我们就可以去安心的做好网站的结构与内容之后再开放蜘蛛的访问
时间: 2024-11-07 06:51:22

蜘蛛禁止访问文件的相关文章

apache禁止访问文件或目录执行权限、禁止运行脚本PHP文件的设置方法

<Directory "要去掉PHP执行权限的目录路径,例如:D:/piaoyun.cc/upload"> ErrorDocument 404 /404/404.html ErrorDocument 403 /404/403.html <FilesMatch "\.(?i:php|php3|php4)$"> // ?是尽可能多的匹配.php的字符串,i是不区分大小写,然后冒号后面跟上正则表达式,也可以写成:<FilesMatch &qu

apache环境下禁止某文件夹内运行PHP脚本、禁止访问文件或目录执行权限的设置方法

? 首先我们来看两段对上传目录设置无权限的列子,配置如下: <Directory "要去掉PHP执行权限的目录路径,如/upload"> ErrorDocument 404 /404/404.html ErrorDocument 403 /404/403.html <FilesMatch "\.(?i:php|php3|php4)$"> // ?是尽可能多的匹配.php的字符串,i是不区分大小写,然后冒号后面跟上正则表达式,也可以写成:<

【wuzhicms】apache 设置禁止访问某些文件或目录

[apache配置禁止访问] 1. 禁止访问某些文件/目录 增加Files选项来控制,比如要不允许访问 .inc 扩展名的文件,保护php类库: <Files ~ "\.inc$"> Order allow,deny Deny from all </Files> 禁止访问某些指定的目录:(可以用 <DirectoryMatch>   来进行正则匹配) <Directory ~ "^/var/www/(.+/)*[0-9]{3}&quo

[Outlook] 重新取得outlook中被禁止访问的文件

摘要:接收到老大的邮件,邮件中带有jar包,导致我无法接收到这个文件,outlook2010中提示:outlook禁止访问不安全……,相信很多人都遇到过这个问题,以前也遇到过,总没去想着解决这个问题,今天就来彻底解决之. 1. 直接上图:错误提示信息如下 2. 关闭outlook,修改注册表,添加参数:Level1Remove 3. 再次打开outlook,查看文件已经可以访问了 参考贴子: http://bbs.51cto.com/thread-979598-1.html 后记:困扰这么久的问

【转】nginx禁止访问某个文件和目录(文件夹)

nginx禁止访问所有.开头的隐藏文件设置 location ~* /.* {deny all;} nginx禁止访问目录, 例如:禁止访问path目录 location ^~ /path {deny all;} 可以把path换成实际需要的目录,目录path后是否带有"/",带"/"只禁止访问目录,不带"/"禁止访问目录中的文件 转载请保留:http://www.nginx.cn/125.html

PHP禁止本文件被单独访问(可以include、require)

一般做程序,我们为了让代码简洁(或各种原因)会把需要的代码单独保存为一个文件在include或require.所以我们就要避免这些东西被单独访问. 将这段代码放到你的程序中,就可以不被访问但可以include和require了! 1 <?php 2 if(basename($_SERVER['PHP_SELF']) == basename(__FILE__)) return; 3 ?> PHP禁止本文件被单独访问(可以include.require)

apache禁止访问某些文件或目录的方法

[apache配置禁止访问] 1. 禁止访问某些文件/目录 增加Files选项来控制,比如要不允许访问 .inc 扩展名的文件,保护php类库: <Files ~ "\.inc$"> Order allow,deny Deny from all </Files> 禁止访问某些指定的目录:(可以用 <DirectoryMatch>   来进行正则匹配) <Directory ~ "^/var/www/(.+/)*[0-9]{3}&quo

Nginx 禁止访问某个目录或文件的设置方法

如果基于WEB根目录下,要禁止用户访问/config目录,或者要禁止用户访问/config.ini(ZF常用INI,不过建议还是放到WEB目录以外的地方),可以通过location进行配置,返回403或者404等 复制代码代码如下: location = /config/ { return 404; } location =/config.ini{ return 404; } 这样只能禁止访问 http://www.jb51.net/path/ 复制代码代码如下: location = /pat

nginx下禁止访问robots.txt的设置方法

关于robots.txt文件:搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信 息.您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot 访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容. 访问,可以得知我们网站中存在/admin和/bbs,其中/admin是关于后台管理的目录,把这个路径轻易的暴漏显然是不太安全的,下面我们可以通过禁止访问.txt类型的文件来,增