开篇!我也来谈谈爬虫

什么是爬虫

我们先看看维基百科的定义

网络爬虫(英语:web crawler),也叫网络蜘蛛(spider),是一种用来自动浏览维网网络机器人

通俗的说爬虫就是通过一定的规则策略自动抓取、下载互联网上网页,在按照某些规则算法对这些网页进行数据抽取、 索引。  像百度、谷歌、今日头条、包括各类新闻站都是通过爬虫来抓取数据。

  

题外话

博客园里偶尔看到爬虫的文章,其实很多都称不上为爬虫。 只能叫玩具或者叫http请求下载程序吧。。 严格来说爬虫是一个系统,它包含了爬取策略、更新策略、队列、排重、存储模块等部分。

爬虫的分类

按照抓取网站对象来分类,可以分为2类爬虫。

1. 通用爬虫

  类似百度、谷歌这样的爬虫,抓取对象是整个互联网,对于网页没有固定的抽取规则。 对于所有网页都是一套通用的处理方法。

2. 垂直爬虫

  这类爬虫主要针对一些特定对象、网站,有一台指定的爬取路径、数据抽取规则。比如今日头条,它的目标网站就是所有的新闻类网站。 比如Etao比价、网易的慧慧购物助手,他们的目标网站就是 淘宝、京东、天猫等等电商网站。

通用爬虫和垂直爬虫显著的区别

  1. 抓取范围,通用爬虫的抓取范围要比垂直爬虫大得多,一个是整个互联网,一个是指定的网站。
  2. 爬取路线,一个通用爬虫要不按照深度爬取、要不是按广度爬取。 而垂直爬虫则可能是按照指定路线爬取。
  3. 数据处理,通用爬虫一般就是分词、索引到数据库。 而垂直爬虫则通过特定的规则来抽取更加精细的数据 。

一般爬虫的构成

那么一个完整的爬虫程序由哪些东西组成呢?

1. HTTP下载器

  顾名思义就是负责HTTP下载,别小瞧它,要做好还挺不容易,因为你面对的复杂而无序、甚至包含错误的互联网。

2. 抓取队列

  就是存储新产生的URL队列(queue),队列可以是多种形式的,他可以是redis的队列、数据库中的表、内存中的队列。根据场景,你可以自行选择。

3. 调度器

  调度嘛,就是负责管理工作的,它通过制定策略,规定哪些URL优先执行、哪些URL靠后。

4. 多线程模块

  对我来说,一个爬虫必须要支持多线程,并且可控。

5. 排重集合

  排重,这是一个爬虫必不可少的部分,你必须记录下哪些URL已经采集过、哪些是未采集过的,复杂点的爬虫,你可能还需要记录上次抓取时间。

6. 页面解析器

  就是定义如何解析抓取到的页面,对于通用爬虫,它可能对于所有页面都是一套逻辑,就是分词、索引。 但对于垂直爬虫,则需要指定规则。手段可能有正则、XPath、正文识别等等。

7.存储数据

  定义以什么方式存储抓取到的数据, 一般情况下都是存储到数据库啦。当然,是一般的关系数据库,还是NoSQL 就看需求了。

一般爬虫的流程

通用爬虫、垂直爬虫他们的流程都是相似的,下面我们简单说说一个爬虫到底是怎么运行的。

首先,我们用一张一般爬虫的流程结构图来看看。

英文我就不翻译了。 大概说说流程吧。

  1. 指定起始URLs。 也就是指定一个入口。不管是通用爬虫还是垂直爬虫,都需要一个入口。
  2. 下载、解析URL。 这里分为2个操作,1. 抽取数据,存储到数据库;2. 解析出页面中包含的URL。
  3. 将解析的新URL放到队列中。
  4. 调度器从URL队列中,按照一定策略,取出要下载的URL,添加到HTTP下载中。
  5. 重复执行第二步,直到URL队列为空。

开源爬虫的框架、程序

这里列举一些比较有名的爬虫项目,有些我用过,有些没用过。我平时工作环境是 .net ,对python爬虫也略有研究。

  1. Scrapy , 非常有名的Python爬虫项目,用户数非常多,文档做的也很棒。
  2. Nutch ,Java的,它其实是一个搜索引擎项目,包含了搜索和Web爬虫两个部分。 没用过。
  3. NCrawler, .net 写的。 架构和代码都很棒,建议想学习 .net 爬虫的同学,多研究。可惜没用文档

Scrapy 额外点评, 在我大概读了下它的源码后,我觉得 Scrapy 在一些地方还是很不错的,比如回调模型。  但是它太臃肿了。对于一个垂直爬虫框架来说的,有很多不必要的设计,比如下载器、中间件。

暂且就列这几个, 欢迎各位同学补充!

除了学习爬虫框架,还需要学习哪些技术?

1. HTTP协议

  主要的包括GET、POST方法。 各种类型Header的了解 ,包括Referer、User-Agent、Cookie、Accept、Encoding、Content-Type等等。

  了解各种HTTP状态码的含义,常见的状态码比如 200表示正常; 301表示重定向,同时会返回新的URL;404表示页面不存在;5xx表示服务器端错误

  了解Cookie的构成,原理。

2. HTML

  HTML基础知识,了解HTML常用元素, 比如A、IMG等等。

  了解URL的构成,路径、参数,绝对路径、相对路径。  

  编码相关,HTML charset, HTML Encode\Decode,URL Encode\Decode,JS Encode\Decode,

3. 浏览器相关

  HTTP协议、HTML其实都是浏览器相关的

  了解浏览器,从你输入一个URL,到看到完整的网页,中间发生了什么。相关知识点: URL、DNS、HTTP、Web Server、HTML、JS、CSS、DOM树、JS引擎等等。

  其中DOM树、JavaScript相关知识对于爬虫来说还是相当重要的。有些时候需要反解JS。

4. 抓包技术

  常用抓包工具,比如Fiddler、浏览器的F12、Wireshark、Microsoft Network Monitor。后面2个属于TCP级别,用的较少。

  通过学习抓包工具使用,可以帮你更好的学习HTTP协议、浏览器相关知识。

  这里强烈、重点推荐 Fiddler

  大概说下几个常用功能吧, 抓包、保存包数据、Composer(构造HTTP请求)、AutoResponser(自动响应HTTP)、FidderScript 通过编写脚本定制程序、修改HTTP包。

  如果你是 .net 技术相关的,建议反编译下,读下源代码,HTTP协议你就搞定啦。它还提供了 FiddlerCore 库让你可以编写自己抓包程序。

反爬虫技术

有爬虫,当然就有反爬虫技术啦。 他们俩一直处于一个对抗、共存的状态。 这是一个非常有意思的过程,对于一些爬虫从业、爱好者来说。

通常来说,只要你想爬,没有爬取不到的数据,就看你的资源和技术了。 不论是网站还是APP。

下面列举下常见几种反爬虫技术:

  1. useragent、referer 等常见反爬虫技术(低级)
  2. 需要登录 cookie,
  3. 封 IP ,限制 IP 访问频率
  4. 验证码,包括图像验证码、拖动验证码等等
  5. 浏览器端 Javascript 混淆 ajax 参数
  6. 其他如 token、随机数

没关系,虽然反爬技术多,但是只是增加你的成本而已。 不过网站也是有代价的,有些反爬会损害用户体验的。

有意思的事情:许多大的互联网公司,会同时有爬虫部门和反爬虫部。哈哈哈,是这样的,爬虫部用来爬别人家的数据, 反爬部门用来屏蔽别人家的爬虫咯!  举个例子,就像之前的58和赶集(不过现在他们合并了) 

后续我将继续写关于爬虫相关的文章、包括开源爬虫程序,欢迎大家继续关注

 如果您看了本篇博客,觉得对您有所收获,请点击右下角的 [推荐]

时间: 2025-01-14 01:40:31

开篇!我也来谈谈爬虫的相关文章

唉,没来这里好久了,也意味着我这一年多来没干什么正事儿,是回归的时候了!(简单谈谈爬虫的解析器)

现在ACM不搞了,一看上一篇文章的发布时间是13年2月,着实把自己吓了一跳.既然已经开始实习了,那就搞搞技术吧,但是算法的学习还不能断,算法导论还有好多知识没学呢嗯,既然实习期间分配的任务是搞一搞爬虫,那我就来说说java的html解析器的具体解析方式吧.首先网络爬虫的大体运行原理大家应该都知道了,如果不知道的话去Google一下,一搜一大把,我就不在这里赘述了.我主要想说的是具体的解析过程到底是怎么运作的,请看下面一段代码,不,是两段代码: 1 InputStream in = url.ope

谈消息总线的路由模型

最近在写一个基于RabbitMQ的消息总线.虽然RabbitMQ提供了plugin的机制可以实现对其进行扩展,但是由于对erlang语言不熟,考虑到上手成本高,因此放弃实现plugin,转而基于Smart client + 树形拓扑路由的模型.当然这也大大降低了我们实现功能的灵活性,后面我会找个时间开篇新文章,谈谈Smart Client的限制. 预备知识 RabbitMQ对于消息的通信只提供了几个非常简单的API:Channel#basicPublish:Channel#basicConsum

谈谈哥的python爬虫书写之路

为了做一个百度网盘搜索引擎,哥开始研究爬虫,从此迷上爬虫而一发不可收拾,现在就大概谈谈哥的爬虫之路,顺便给出引擎:http://www.quzhuanpan.com 首先基本的 Python 语法你要了解吧,推荐一本书<Python基础教程>,很适合入门. 其次分析你的爬虫需求.程序具体  流程是怎么样的?把程序的大致框架搭起来.另外可能还有哪些难点? 然后了解一下一般写爬虫需要用哪些库,这些库可以很好的帮助你解决很多问题.推荐强悍的 Requests: HTTP for Humans 另外还

小白学 Python 爬虫(1):开篇

人生苦短,我用 Python 引言 各位同学大家好,好久不见(可能只有一两天没见:囧)~~~ 先讲一件事情,昨天为啥没更新. emmmmmmmmm,当然是因为加班啦,快到年底了,公司项目比较忙,最近的更新频率会有下降,请各位海涵. 废话不多说,开始今天的正题,从题目大家应该已经猜到了,小编要开始更新一个新的系列<小白学 Python 爬虫>,介于大家水平参差不齐,建议没有 Python 基础第一次接触的同学先看下小编之前更新的<小白学 Python 系列>,大致了解下 Python

设计模式之旅(一)--开篇谈谈

设计模式对程序员来说是相当重要的,显然,我们是非常有必要拿出一段时间来综合的学习他的. 杨过练剑之时,起初使用的是一把锋利无比的利剑,此乃第一阶段:后来,杨大侠武功长进,使用的是轻剑,举重若轻,厉害无比:后来,境界又提升了,使用的是重剑,重剑无锋,大巧不工,目测霸气无比:之后,身经百战之后,杨大侠再次升级,无论何时,无论何地,身边之物,皆可为剑,达到了无剑胜有剑之境界. 想说的是,想要练就一身独步天下的武功,总会是要分阶段慢慢来的.学习设计模式更是如此,必须要学,必须要懂得这些招式,然后在实战中

python爬虫框架 — Scrappy

Python爬虫框架有很多种,可是我们经常谈论使用的却屈指可数,今天就给大家谈谈Python爬虫框架--Scrapy是一个快速.高层次.轻量级的屏幕抓取和web抓取python爬虫框架,主要用于抓取特定web站点的信息并从页面中提取结构化的数据. 由于Scrapy的框架特性,也支持开发者根据自己的需求对框架进行修改,方便开发者开发出更适合的python爬虫.除此之外,Scrapy还提供了多 种类型的爬虫基类,包括BaseSpider.sitemap爬虫等等,最新版本同时也提供了web2.0爬虫的

爬虫与反爬虫

转自:https://mp.weixin.qq.com/s/-w-yC6PCdTOpfKS8HZEleA 前言 爬虫与反爬虫,是一个很不阳光的行业. 这里说的不阳光,有两个含义. 第一是,这个行业是隐藏在地下的,一般很少被曝光出来.很多公司对外都不会宣称自己有爬虫团队,甚至隐瞒自己有反爬虫团队的事实.这可能是出于公司战略角度来看的,与技术无关. 第二是,这个行业并不是一个很积极向上的行业.很多人在这个行业摸爬滚打了多年,积攒了大量的经验,但是悲哀的发现,这些经验很难兑换成闪光的简历.面试的时候,

Android开篇

来源: http://gityuan.com/android/ 一.简述 Android系统非常庞大.错中复杂,其底层是采用Linux作为基底,上层采用包含虚拟机的Java层以及Native层,通过系统调用(Syscall)连通系统的内核空间与用户空间.用户空间主要采用C++和Java代码,通过JNI技术打通用户空间的Java层和Native层(C++/C),从而融为一体. Google官方提供了一张经典的四层架构图,从下往上依次分为Linux内核.系统库和Android运行时环境.框架层以及应

爬虫框架YayCrawler

爬虫框架YayCrawler 各位好!从今天起,我将用几个篇幅的文字向大家介绍一下我的一个开源作品——YayCrawler,其在GitHub上的网址是:https://github.com/liushuishang/YayCrawler,欢迎大家关注和反馈. YayCrawler是一个基于WebMagic开发的分布式通用爬虫框架,开发语言是Java.我们知道目前爬虫框架很多,有简单的,也有复杂的,有轻量型的,也有重量型的.您也许会问:你这个爬虫框架的优势在哪里呢?额,这个是一个很重要的问题!在这