数据从业者必读:抓取了一千亿个网页后我才明白,爬虫一点都不简单

编者按:互联网上有浩瀚的数据资源,要想抓取这些数据就离不开爬虫。鉴于网上免费开源的爬虫框架多如牛毛,很多人认为爬虫定是非常简单的事情。但是如果你要定期上规模地准确抓取各种大型网站的数据却是一项艰巨的挑战,其中包括网站的格式经常会变、架构必须能灵活伸缩应对规模变化同时要保持性能,与此同时还要挫败网站反机器人的手段以及维护数据质量。流行的Python爬虫框架Scrapy开发者Scrapinghub分享了他们抓取一千亿个网页后的经验之谈。

  现在爬虫技术似乎是很容易的事情,但这种看法是很有迷惑性的。开源的库/框架、可视化的爬虫工具以及数据析取工具有很多,从网站抓取数据似乎易如反掌。然而,当你成规模地在网站上抓东西时,事情很快就会变得非常棘手。

  自2010年以来抓取超过1000亿个产品页面,我们将会通过系列文章来分享从中学到的经验教训,让你深入了解从电子商务商店中规模析取数据时所面临的挑战,并且跟你分享应对这些挑战的某些最佳实践。

  本文是该系列文章的第一篇,在这里我们将提供规模抓取产品数据所面临主要挑战的概览,以及Scrapinghub从抓取1000亿产品页面中学到的经验教训。

  成立于2010年的Scrapinghub是领先的数据析取公司之一,也是当今最健壮和流行的web爬虫框架Scrapy的作者。目前Scrapinghub每月抓取许多全球最大型电子商务公司的页面数超过80亿(其中30亿是产品页面)。

  对于那些对规模爬取网页技术感兴趣但对要不要建立专门的web爬取团队或者外包给专门的web爬取公司的人来说,最好看看这个免费指南,企业web爬虫:规模化web爬取技术指南

!!!规模爬取技术为什么重要?

跟标准的web爬取应用不一样的是,规模爬取电子商务产品数据有一项独特挑战使得web抓取要困难许多。

本质上这些挑战可归结为两件事情:速度和数据质量

由于时间通常是限制因素,规模抓取要求你的爬虫要以很高的速度抓取网页但又不能拖累数据质量。对速度的这张要求使得爬取大规模产品数据变得极具挑战性。

挑战1——草率而且总是在变的网站格式

这一点很明显但也许不是最性感的挑战,但是草率而一直在变的网站格式是目前为止你在规模析取数据时将会面临的最大挑战。这未必是因为任务的复杂性,而是由于你要投入的时间和资源。

如果你花过时间开发过电子商务商店的爬虫的话,你就会知道电子商务网站代码之草率是一种流行病。这可不仅仅是HTML完构性或者偶尔的字符编码问题。这些年来我们遇到过形形色色的问题——HTTP响应代码的误用,损坏的JavaScript代码,或者Ajax的误用:

  • 停掉产品时移除页面的商店在网站升级后突然间会在404错误处理程序返回200响应码。
  • 不恰当的JSON转义破坏了部分页面的JavaScript代码(比如‘b0rk’d’),导致你需要用正则表达式来抓取那部分数据。
  • 滥用Ajax调用的商店以至于你只能靠渲染该页面(这会导致爬取慢很多)或者模仿API调用(导致要付出更多的开发努力)来获得数据。

像这样草率的代码会导致编写爬虫非常痛苦,但也会使得可视化爬取工具或者自动析取不再可行。

在规模爬取的时候,你不仅要浏览成百上千个有着草率代码的网站,还将被迫应对不断演变的网站。一条好的经验法则是要预计你的目标网站每隔2到3个月就会发生让你的爬虫工作不了的变化。

  这也许看起来不像是多大的事,但是当你规模抓取时,那些事件就会累积。比方说,Scrapinghub有一个规模比较大的电子商务项目大概有4000个爬虫抽取约1000个电子商务网站,意味着每天可能会经历20到30次爬虫失败。

  而且网站在不同地区、语言的变化,A/B测试以及包装/定价的派生也会制造出各种问题导致爬虫失败。

没有容易的解决方案

不幸的是,不存在银弹可以彻底解决这些问题。很多时候这只是随着规模而扩大投入更多资源到你的项目上才能解决的事情。再拿上一个例子来说吧,那个项目有18名全职的爬虫工程师以及3名专职的QA工程师来确保客户总能得到可靠的数据流。

不过,你的团队有经验以后就会学会如何开发出更加健壮的爬虫,从而检测并处置目标网站格式中的异常。

如何处理目标网站有各种布局可能的情况呢?用多个爬虫也许不是最好的做法,我们的最佳实践是只用一个产品爬虫来处理不同页面布局个各种可能规则和模式。你的爬虫可配置性越强越好。

尽管这些实践会让你的爬虫更加复杂(我们有些爬虫有好几千行),但它会确保你的爬虫更容易维护。

由于大多数公司日常都需要析取产品数据,等待几天让你的工程团队修复任何坏掉的爬虫不是可选项。当出现这些情况时,Scrapinghub会利用自己开发的基于机器学习的数据析取工具来作为后备,直到爬虫修复好。这个基于ML的析取工具会自动识别目标网站的目标字段(产品名称、价格、货币单位、图像、SKU等)并且返回想要的结果。

我们会在未来几周之内发布这项工具以及相关的指导文章,告诉大家如何将机器学习用到你的数据析取过程当中。

挑战 2:可伸缩的架构

你将面临的第二个挑战是建设一个可随每日请求数增长而扩充且性能不会下降的爬虫基础设施。

在规模析取产品数据时,一个串行爬取的简单web爬虫是不堪此任的。通常一个串行的web爬虫会循环发出请求,每一项请求都要2到3秒钟完成。

如果你的爬虫每天发出的请求数不到40000的话这种做法是没有问题的。然而,超过这个点你就得过渡到一种让你每天可以完成数百万请求而不会性能下降的爬虫架构。

这个话题得用一篇文章才能说得清楚,未来几周我们将发布一篇专门的文章来讨论如何设计和开发高吞吐量的爬取架构。然而,本节的剩余部分我们将讨论一些高级原则和最佳实践。

正如我们讨论过那样,在规模爬取产品数据时速度是关键。你需要确保在时间阈值范围内(通常是1天)可以找到并且爬取所有要求的产品页面。为此你需要做以下一些事情:

将产品发现与产品析取分开

为了规模爬取产品数据你需要将你的产品发现爬虫与产品析取爬虫分开。

产品发现爬虫的目标应该是让它浏览目前产品目录(或者“货架”)然后存储该目录下的产品URL供产品析取爬虫使用。

这个可以靠Scrapinghub 开发的开源工具Frontera之类的爬虫前端辅助完成。尽管Frontera原先的目的是配合Scrapy使用的,但它其实完全是不可知论者,可用于任何爬虫框架或者独立项目。在这篇文章中,我们分享了如何利用Frontera来规模抓取HackerNews的东西。

分配更多资源给产品析取

由于每一个产品目录“货架”可包含10到100种产品,而且析取产品数据需要的资源要比析取产品URL更多,发现爬虫通常运行要比产品析取爬虫更快。这种情况下,你需要有多个析取爬虫来对应每一个发现爬虫。一条好的经验法则是每10万个页面分配一个析取爬虫。

挑战 3:维护吞吐量性能

一级方程式的目标是将车上一切不必要的载荷都剔除掉,并且以速度之名将引擎最后一丝马力都榨干,从这个意义上来说规模抓取可以跟一级方程式相比较。规模web抓取也是一样的道理。

在析取大量数据时,在现有硬件资源条件下,你总是会想方设法要寻找请求周期最小化爬虫性能最大化的手段。这一切都是希望你能给每个请求节省下来那么几微秒的时间。

为此你的团队需要对web爬取框架、代理管理以及所使用的硬件具备深刻理解,这样才能对它们进行调整以优化性能。你还需要关注:

爬取效能

规模爬取时你应该始终把焦点放在以尽量少的请求析取所需数据上。任何额外请求或者数据析取都会放缓你爬取网站的节奏。在设计你的爬虫时请记住这些提示:

  • 作为最后一招,仅使用无界面浏览器,比如Splash或者Puppeteer来渲染JavaScript。用无界面浏览器渲染JavaScript同时爬取是非常耗资源的,会严重影响爬取的速度。
  • 如果你可以从货架页面(比如产品名称、价格、评分等)获得所需的数据而不需要向独立的产品页面提出请求的话,那就不要向产品页面发出请求。
  • 不要请求或者析取图像,除非迫不得已。

挑战 4:反机器人的对策

如果你批量抓取电子商务网站的话一定会遇到采用反机器人对策的网站。

规模小一点的网站其反机器人对策就是些基本手段(屏蔽发送请求过量的IP)。然而,较大的电子商务网站,比如Amazon等,会采用复杂的反机器人对策,比如Distil Networks、Incapsula或者Akamai等来使得析取数据困难许多。

代理

了解到这一点之后,任何项目想要规模抓取才数据,首要的基本需求就是得用代理。规模抓取数据时你需要可观的代理清单,而且需要实现必要的IP轮转、请求限制、会话管理以及黑名单逻辑来预防代理被屏蔽。

或者除非你有或者愿意用一支规模可观的团队管理你的代理,否则的话你应该把抓取流程中的这一部分外包出去。提供各种水平服务的代理服务有很多。

然而,我们的建议是找一家能够提供单个代理配置端点并且将所有的代理管理复杂性隐藏起来的代理提供商。在没有重新发明轮子、开发和维护自己的内部代理管理基础设施的情况下规模抓取就已经很耗资源了。

大多数大型电子商务公司都采用这种做法。一些全球最大型的电子商务网站采用Scrapinghub 开发的智能下载器Crawlera,这个东西的代理管理完全是外包的。当你的爬虫每天要发出2000万条请求时,把注意力放在分析数据而不是管理代理上会有意义得多。

代理以外

不幸的是,光靠使用代理服务并不足以确保你能规避大型电子商务网站的反机器人对策。越来越多的网站正在利用复杂的反机器人对策来监控你的爬虫行为,检测其是否真人访客。

这些范机器人对策不仅使得爬取电子商务网站越来越困难,而且克服这些手段如果做得不对的话也会严重拖累爬虫性能。

这些机器人对策有很大一部分使用到了JavaScript来确定请求是否来自于爬虫还是人(Javascript引擎检查、字体枚举、WebGL与Canvas等)。

不过正如前面所述,规模爬取时你希望限制可编写脚本的无界面浏览器(Splash 或者Puppeteer等)的使用,因为渲染页面的任何JavaScript都非常耗资源并且放慢爬取网站的速度。

这意味着为了确保你能取得必要的吞吐量让爬虫提交每天的产品数据,你往往需要痛苦地对目标网站采用的反机器人对策进行逆向工程,并且在不使用无界面浏览器的情况下设计你的爬虫抵消那些对策。

挑战 5:数据质量

从数据科学家的角度来说,任何网站爬取项目最重要的考虑是析取数据的质量。规模爬取只会令这一关注变得更加重要。

当每天都要析取数百万数据点时,想靠人工来验证数据是否干净和完整是不可能的。变脏或者不完整的数据很容易就会流入到你的数据流里面,进而破坏了数据分析的效果。

尤其是在抓取同一个的不同版本(不同的语言、地区等)或者不同商店上的产品时更是如此。

在爬虫开发的设计阶段,需要进行仔细的QA流程,爬虫代码要经过同行评审和测试以确保用最可靠的方式析取到想要的数据。确保最高数据质量的最好的办法是部署一套自动化QA监控系统。

作为任何数据析取项目的一部分,你需要计划和开发一套监控系统,这套系统将提醒你任何不一致的数据以及发生的爬虫错误。Scrapinghub开发了一个机器学习算法来检测:

  • 数据验证错误——每一个数据项都有定义好的遵循一致模式的数据类型和值。我们的数据验证算法会提醒项目的QA团队任何与预期数据类型不一致的数据项,然后再进行人工检查、提醒已验证或者标记为错误。
  • 产品差异化错误——从同一网站的多个版本(不同语言、地区)爬取相同产品数据时,有可能变量或者像产品重量或者尺寸这样本该是固定值的数据项也会不一样。这可能是网站反机器人对策向你的一到多个爬虫提供篡改信息的结果。再次地,你需要算法来识别和标记类似这样的情况。
  • 基于数量的不一致性——另一个关键的监控脚本是检测返回记录的任何异常变化。这可能预示网站已经做出改变或者你的爬虫被提供了篡改的信息。
  • 网站变化——目标网站发生的结构性改变是爬虫失效的主要原因。我们的专用监控系统会监控到这一点。该工具会对目标网站进行频繁的检查,确保自从上次抓取之后没有发生任何变化。如果改变被发现,它也会发出通知。

总结

正如你所看到那样,规模抓取产品数据会面临一系列的独特挑战。希望这篇文章能够让你更加意识到相关挑战,并且就如何解决这些问题获得启发。

原文链接:https://baijiahao.baidu.com/s?id=1606482126832777393&wfr=spider&for=pc

原文链接:https://blog.scrapinghub.com/web-scraping-at-scale-lessons-learned-scraping-100-billion-products-pages

好文章拿来读一读。编辑:不良将。

原文地址:https://www.cnblogs.com/dbl-bls-400/p/11451614.html

时间: 2024-10-06 02:42:18

数据从业者必读:抓取了一千亿个网页后我才明白,爬虫一点都不简单的相关文章

爬虫很简单么?直到我抓取了一千亿个网页后我懂!爬虫真不简单!

现在爬虫技术似乎是很容易的事情,但这种看法是很有迷惑性的.开源的库/框架.可视化的爬虫工具以及数据析取工具有很多,从网站抓取数据似乎易如反掌.然而,当你成规模地在网站上抓东西时,事情很快就会变得非常棘手. 私信小编007即可获取数十套PDF哦! 规模爬取技术为什么重要? 跟标准的web爬取应用不一样的是,规模爬取电子商务产品数据有一项独特挑战使得web抓取要困难许多. 本质上这些挑战可归结为两件事情: 速度 和 数据质量 . 挑战#1--草率而且总是在变的网站格式 这一点很明显但也许不是最性感的

nodejs抓取数据一(列表抓取)

纯属初学...有很多需要改进的地方,请多多指点... 目标是抓取58同城 这个大分类下的列表数据: http://cd.58.com/caishui/?PGTID=14397169455980.9244072034489363&ClickID=1 简单分析: 1. 按照以下二级分类来获取每个列表的数据, 2. 主要分页: 可以看出,其分页是pn5 这里设置的,那么这个5就是页码了. http://cd.58.com/dailijizh/pn5/?PGTID=1177429071887065549

深入USB流量数据包的抓取与分析

0x01 问题提出 在一次演练中,我们通过wireshark抓取了一个如下的数据包,我们如何对其进行分析? 0x02 问题分析 流量包是如何捕获的? 首先我们从上面的数据包分析可以知道,这是个USB的流量包,我们可以先尝试分析一下USB的数据包是如何捕获的. 在开始前,我们先介绍一些USB的基础知识.USB有不同的规格,以下是使用USB的三种方式: l USB UART l USB HID l USB Memory UART或者Universal Asynchronous Receiver/Tr

Google去抓取同一文件的流量就超过了700Mbps。DDOS爬虫攻击

只需要使用一台笔记本,打开几个web标签页,仅仅拷贝一些指向10MB文件的链接,Google去抓取同一文件的流量就超过了700Mbps. Google的FeedFetcher爬虫会将spreadsheet的=image("link")中的任意链接缓存. 如果我们将=image("http://example.com/image.jpg")输入到任意一个Google spreadsheet中,Google就会"派出"FeedFetcher爬虫去抓取

scrapy抓取拉勾网职位信息(一)——scrapy初识及lagou爬虫项目建立

本次以scrapy抓取拉勾网职位信息作为scrapy学习的一个实战演练 python版本:3.7.1 框架:scrapy(pip直接安装可能会报错,如果是vc++环境不满足,建议直接安装一个visual studio一劳永逸,如果报错缺少前置依赖,就先安装依赖) 本篇主要对scrapy生成爬虫项目做一个基本的介绍 tips:在任意目录打开cmd的方式可以使用下面这两种方式 shift + 右键打开cmd(window10的powershell你可以简单理解为cmd升级版) 在路径框直接输入cmd

关于网站使用异步请求以后浏览器源码查看不到数据导致百度抓取不到的问题解决方案

起初,也因为这个问题钻入了错误的漩涡中,比如js代码写在head里面,获取的数据用隐藏文本存放等等,试过以后都是不行的,后面甚至想到了改项目架构,但是自己都认为感觉有点不实际,改动那不是一般的大,对于在代码基本敲完只做优化的前提下任何人都是无法接受的,然后自己就琢磨怎么实现让网页源码能看到数据,后面就去比对网站,一般的网站想实现网页源码能看到数据肯定是要动态装载的,所有我想到了一个办法,而且特别简单,就是缓存,没有任何高端的技术,就是在你异步读取数据的时候,同步把数据装载进缓存里面,然后再放到页

大数据抓取采集框架(摘抄至http://blog.jobbole.com/46673/)

摘抄至http://blog.jobbole.com/46673/ 随着BIG DATA大数据概念逐渐升温,如何搭建一个能够采集海量数据的架构体系摆在大家眼前.如何能够做到所见即所得的无阻拦式采集.如何快速把不规则页面结构化并存储.如何满足越来越多的数据采集还要在有限时间内采集.这篇文章结合我们自身项目经验谈一下. 我们来看一下作为人是怎么获取网页数据的呢? 1.打开浏览器,输入网址url访问页面内容.2.复制页面内容的标题.作者.内容.3.存储到文本文件或者excel. 从技术角度来说整个过程

Asp.net 使用正则和网络编程抓取网页数据(有用)

Asp.net 使用正则和网络编程抓取网页数据(有用) /// <summary> /// 抓取网页对应内容 /// </summary> /// <param name="strUrl">採集地址</param> /// <param name="Begin">開始字符</param> /// <param name="End">结束字符</param&g

使用node.js cheerio抓取网页数据

想要自动从网页抓一些数据或者想把一坨从什么博客上拉来的数据转成一种有结构的数据? 居然没有现成的API可以取数据?!!! [email protected]#[email protected]#$… 没关系 网页抓取可以解决. 什么是网页抓取? 你可能会问... 网页抓取是以编程的方式(通常不用浏览器参与)检索网页的内容并从中提取数据的过程. 本文,小编会给大家展示一套强大的抓取工具,可以快速的对网面进行抓取,而且容易上手,它是由javascript 和node.js实现的. 最近我需要爬一些大