DIY robots文件

今天,接着robots文件设置的DIY部分,更确切的说应该是robots文件的高级阶段,就是不但懂得如何设置robots文件的基础部分,更懂得按照自己网站的需求去设置robots文件。总的原创是,利于搜索引擎对我们网站的收录。一般有如下几点,以下的举例名称只是举例,具体的目录及文件要看自己网站的目录,别照搬就行!

第一:图片目录的屏蔽

说到图片的屏蔽,那么我就给大家提个问题:为什么要屏蔽图片?如果要更好的回答这个问题,或者说更好的理解屏蔽图片目录的原因,就得先去理解搜索引擎的原理,这里先简单说下–因为以后我会详细的介绍搜索引擎的原理–我们队网站所做的任何事情的唯一目的就是让搜索引擎更好的去收录网站的内容,那么图片是搜索引擎不太喜欢的,所以我们有必要屏蔽掉,这样更有利于说说收录,一般的图片文件的目录是images。

第二:缓存目录的屏蔽

只要是正在运作的网站程序,都会有缓存目录,而这些缓存目录我们是不需要搜索引擎去收录的,所以就没必要让蜘蛛区抓取的,蜘蛛把这些无价值的东西抓取走,对网站是百害而无一益的。所以我们有必要将缓存目录屏蔽掉。

第三:CSS目录的屏蔽

CSS目录,这个绝对是对搜索引擎无用的东西,毫无疑问,直接屏蔽掉。

第四:部分程序的RSS页

这方面对于博客类型网站中比较常用到,像RSS页面,是一个高度重复的页面,完全有必要进行屏蔽,从而增加网站对搜索引擎友好。

第五:屏蔽双页面的内容

什么叫做双页面?就是一个动态页面和一个静态页面,而这两者搜索引擎对静态页面比较喜爱,我们只需要让搜索引擎抓取其中一个页面就可以了。两者若被搜索引擎完全索引,无疑是访问到了完全一致的内容,对搜索引擎友好性来说是有害无益的。那么我们选择哪一种页面?毫无疑问是静态页面了,因为静态页面更易于搜索引擎索引收录。

最后一点就是模板目录是否该屏蔽的问题,还存在争议。而个人觉得还是不屏蔽为好,因为模板目录里面还有很多网站内容的信息,如果屏蔽掉了,也许会对我们网站收录有影响。 

DIY robots文件,码迷,mamicode.com

时间: 2024-10-10 16:26:17

DIY robots文件的相关文章

magento的robots文件编写和判断是否是一个导航分类页面

magento是网店系统,我们突出的是我们的产品,所以,有很多路径我们不想让搜索引擎索引到,所以我们需要用robots文件进行限制 下面是麦神magento的robots.txt里面的内容,因为很多url重写和伪静态,所以,不要复制使用,这个格式是针对麦神Magento版本的 User-agent: *Disallow: /home/Disallow: /catalogsearch/advanced/Disallow: /catalog/Disallow: /sendfriend/Disallo

robots文件对网站优化有哪些作用

robots文件是网站与搜索引擎蜘蛛爬虫之间的一份协议,用txt文本格式告诉蜘蛛爬虫网站有哪些页面可以被抓取,哪些页面不可以抓取的权限.所以在seo优化中robots指的是文件而不是一个命令或者参数,这点希望大家不要搞混了. 正常搜索引擎访问一个站点的时候,首先会先看站点有没有robots.txt文件,如果没有则蜘蛛爬虫会抓取网站上的所有数据:如果有蜘蛛爬虫会根据robots.txt文件内容来确定自己能够抓取访问的文件有哪些. 运用好robots文件对于seo优化来说也是作用挺大的,我们先来看看

【SEO系列教程】SEO概念:robots文件的概念、特点和写法

robots.txt文件的概念.特点和写法 1. 概念:robots.txt是一个最简单的.txt文件,用以告诉搜索引擎哪些网页/文件夹可以收录,哪些不允许收录(可以爬行). 提示:/admin/ 拒绝推荐 搜索引擎第一步看的就是网站的robots.txt 文件放在哪里:FTP服务器-网站根目录 穿插小疑问:网站收录特别差,为什么差?原因不明! 推荐解决方法:网站地图+robots.txt结合使用. 推荐阅读:http://blog.csdn.net/yzdzhouxiong/article/d

从robots文件看网站用的是哪个程序

下面我们来研究这个网站:短美文(http://www.duanmeiwen.com/) 它的robots.txt地址是:http://www.duanmeiwen.com/robots.txt 文件如下: User-agent: * Disallow: /plus/ad_js.php Disallow: /plus/advancedsearch.php Disallow: /plus/car.php Disallow: /plus/carbuyaction.php Disallow: /plus

powershell ise好字库和diy配色文件分享

Windows PowerShell ISE (集成脚本环境) 是 Win中自带的脚本编写工具. 在 Windows PowerShell ISE 中,可以在单个基于 Windows 的图形用户界面中运行命令并编写.测试和调试脚本, 该用户界面具有多行编辑.Tab 补齐.语法着色.选择性执行.上下文相关帮助等功能,而且还支持从右到左书写语言. 可以使用菜单项和键盘快捷方式来执行可在 Windows PowerShell 控制台中执行的许多相同任务. 例如,当您在 Windows PowerShe

编译器DIY——读文件

http://passport.baidu.com/?business&un=%E6%89%BE%5F%E5%BB%B6%E5%BA%86%5F%E5%B0%8F%E5%A6%B9%5F#0 http://passport.baidu.com/?business&un=%E6%89%BE%5F%E5%A4%A9%E6%B4%A5%5F%E7%BE%8E%E5%A5%B3%5F#0 http://passport.baidu.com/?business&un=%E5%BB%B6%E5

请别昧着良心说自己的文章是原创

写下这个标题的同时也对自己之前写的两篇伪原创文章感到深深的谴责,具体哪两篇?大家有兴趣可以在我的博客找找,应该很容易能发现,那么搜索引擎虽说是机器,毫无疑问会发现,只是迟早问题. 其实写这篇文章的目的不是为了谴责自己,更不是为了谴责写伪原创文章的SEOers,特别对于新手SEOers,写文章确实是个头疼的事情,当然我也是个新手,而我写这篇文章的目的是为了给新手SEOers解决问题的--如何写高质量的原创文章,让原创文章不再头疼!-–从我亲身感悟来告诉大家如何写原创文章,我能写,你们更能写. 先给

Robots 限制搜索引擎蜘蛛抓取哪些文件

编辑一份 Robots 文件,另存为robots.txt,存在到服务器的根目录里 Java代码   User-agent: * Disallow: /plus/ad_js.php Disallow: /plus/advancedsearch.php Disallow: /plus/car.php Disallow: /plus/carbuyaction.php Disallow: /plus/shops_buyaction.php Disallow: /plus/erraddsave.php D

WordPress默认自带的robots.txt文件设置在哪里

网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,robots默认都是放在网站根目录.刚建好的WordPress网站,打开robots.txt是能访问的,但是在网站目录却找不到任何robots.txt文件,其实默认的robots文件放在wp-includes/functions.php中,通过搜索robots大概在1319行可进行修改 原文地址:https://www.cnblogs.com/xuwen777/p/11703566.html