爬虫-认识爬虫

爬虫 - 认识爬虫

什么是上网?爬虫要做的是什么?

  • 我们所谓的上网便是由用户端计算机发送请求给目标计算机,将目标计算机的数据下载到本地的过程。
  • 用户获取网络数据的方式是: 浏览器提交请求->下载网页代码->解析/渲染成页面。
  • 而爬虫程序要做的就是: 模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放于数据库或文件中

定义

通过编写程序,模拟浏览器上网,向网站发起请求,让其去互联网上获取数据后分析并提取有用数据的程序爬虫的基本流程

"""
1、发起请求
使用http库向目标站点发起请求,即发送一个Request Request包含:请求头、请求体等

2、获取响应内容
如果服务器能正常响应,则会得到一个Response Response包含:html,json,图片,视频等

3、解析内容
解析html数据:正则表达式,第三方解析库如Beautifulsoup,pyquery等
解析json数据:json模块
解析二进制数据:以b的方式写入文件

4、保存数据
数据库 文件
"""

请求与响应

http协议:https://home.cnblogs.com/u/waller/
Request:用户将自己的信息通过浏览器(socket client)发送给服务器(socket server)

Response:服务器接收请求,分析用户发来的请求信息,然后返回数据(返回的数据中可能包含其他链接,如:图片,js,css等)

ps:浏览器在接收Response后,会解析其内容来显示给用户,而爬虫程序在模拟浏览器发送请求然后接收Response后,是要提取其中的有用数据。

Request

1.请求方式:
    常用的请求方式:GET,POST
    其他请求方式:HEAD,PUT,DELETE,OPTHONS
'''
post与get请求最终都会拼接成这种形式:k1=xxx&k2=yyy&k3=zzz
post请求的参数放在请求体内:
    可用浏览器查看,存放于form data内
get请求的参数直接放在url后
'''
2.请求的url
    url全称统一资源定位符,如一个网页文档,一张图片
    一个视频等都可以用url唯一来确定
'''
url编码
    https://www.baidu.com/s?wd=图片
    图片会被编码(看示例代码)
'''
'''
网页的加载过程是:
加载一个网页,通常都是先加载document文档,
在解析document文档的时候,遇到链接,则针对超链接发起下载图片的请求
'''
3、请求头
    User-Agent:请求头中如果没有user-agent客户端配置,
    服务端可能将你当做一个非法用户
    host
    cookies:cookie用来保存登录信息
'''
一般做爬虫都会加上请求头
'''
4.请求体
    如果是get方式,请求体没有内容
    如果是post方式,请求体是format data
'''
ps:
1、登录窗口,文件上传等,信息都会被附加到请求体内
2、登录,输入错误的用户名密码,然后提交,就可以看到post,正确登录后页面通常会跳转,无法捕捉到post
'''

Response

1、响应状态
    200:代表成功
    301:代表跳转
    404:文件不存在
    403:权限
    502:服务器错误
2、Respone header
    set-cookie:可能有多个,是来告诉浏览器,把cookie保存下来
3、preview就是网页源代码
    最主要的部分,包含了请求资源的内容
    如网页html,图片
    二进制数据等

爬虫分类

  • 1 通用爬虫:   获取一整张页面数据
  • 2 聚焦爬虫:   获取指定页面内的指定数据
  • 3 增量式爬虫:   用来检测网站数据的更新情况,爬取网站最新更新出来的数据

"攻" 与 "防"

"攻":反爬机制

网站采用相关的技术手段或策略阻止爬虫程序对网站数据的爬取
- UA检测: 服务器通过对请求中的请求头里的UA的值,来判定请求载体的身份
# robots协议  (君子协议)
通常用在门户网站中,声明了哪些数据可爬,哪些数据不可爬
eg:
    https://www.taobao.com/robots.txt

"防":反反爬策略

让爬虫程序通过破解反爬机制获取数据
# ps: 网站不同策略不同,需要分析
一般使用到的头信息:
    请求头
    - User-Agent : 请求载体的身份标识
        载体: 浏览器, 爬虫程序
    - Connection : keep-alive | close
        close : 当用爬虫请求成功后,这个请求对应的连接会立刻断开
    响应头
    - content-type : 数据响应方式, 服务器按对应方式响应数据

补充

http协议: client与server进行数据交互的一种规定形式
https协议: 安全的http协议,在http基础之上加了一个安全层的操作(ssl加密)
    - 对称秘钥加密:(不安全)
        加密数据级密规则(私钥)发送到服务端破解
    - 非对称秘钥加密:(效率低, 不安全:客户端拿到的公钥不一定是服务端的)
        服务器端制定加密方式(公钥)和解密方式(私钥),客户端获取公钥加密数据再传输
    - 证书秘钥加密:
        公钥 -> 证书机构 -> 添加证书 -> 客户端 -> 加密数据 -> 服务端

ps: 爬虫仅仅是工具,无好坏之分

原文地址:https://www.cnblogs.com/wwbplus/p/12122099.html

时间: 2024-11-09 05:36:44

爬虫-认识爬虫的相关文章

【java爬虫】---爬虫+基于接口的网络爬虫

爬虫+基于接口的网络爬虫 上一篇讲了[java爬虫]---爬虫+jsoup轻松爬博客,该方式有个很大的局限性,就是你通过jsoup爬虫只适合爬静态网页,所以只能爬当前页面的所有新闻.如果需要爬一个网 站所有信息,就得通过接口,通过改变参数反复调该网站的接口,爬到该网站的所有数据信息. 本博客以爬金色财经新闻信息为对象,去爬取该网站从建站以来发表的所有新闻信息.下面会一步一步讲解.这里重点重点讲思路,最后我会提供完整源码. 第一步:找接口 你要获得该网站所有新闻数据,第一步当然是获得接口,通过接口

python3爬虫--反爬虫应对机制

python3爬虫--反爬虫应对机制 内容来源于: Python3网络爬虫开发实战: 网络爬虫教程(python2): 前言: 反爬虫更多是一种攻防战,针对网站的反爬虫处理来采取对应的应对机制,一般需要考虑以下方面: ①访问终端限制:这种可通过伪造动态的UA实现: ②访问次数限制:网站一般通过cookie/IP定位,可通过禁用cookie,或使用cookie池/IP池来反制: ③访问时间限制:延迟请求应对: ④盗链问题:通俗讲就是,某个网页的请求是有迹可循的,比如知乎的问题回答详情页,正常用户行

Python 爬虫-Scrapy爬虫框架

2017-07-29 17:50:29 Scrapy是一个快速功能强大的网络爬虫框架. Scrapy不是一个函数功能库,而是一个爬虫框架.爬虫框架是实现爬虫功能的一个软件结构和功能组件集合.爬虫框架是一个半成品,能够帮助用户实现专业网络爬虫.  一.Scrapy框架介绍 5+2结构,5个主要模块加2个中间件. (1)Engine:控制所有模块之间的数据流:根据条件触发事件.不需要用户修改 (2)Downloader:根据请求下载网页.不需要用户修改 (3)Scheduler:对所有爬取请求进行调

2017.07.28 Python网络爬虫之爬虫实战 今日影视2 获取JS加载的数据

1.动态网页指几种可能: 1)需要用户交互,如常见的登录操作: 2)网页通过js / AJAX动态生成,如一个html里有<div id="test"></div>,通过JS生成<divid="test"><span>aaa</span></div>: 3)点击输入关键字后进行查询,而浏览器url地址不变 2.想用Python获取网站中JavaScript返回的数据,目前有两种方法: 第一种方法

增量爬虫,垂直爬虫

2.增量型爬虫(Incremental Crawler):增量型爬虫与批量型爬虫不同,会保持持续不断的抓 取,对于抓取到的网页,要定期更新,因为互联网的网页处于不断变化中,新增网页.网页被删除或者网页内容更改都很常见,而增量型爬虫需要及时反映这种变 化,所以处于持续不断的抓取过程中,不是在抓取新网页,就是在更新已有网页.通用的商业搜索引擎爬虫基本都属此类. 3.垂直型爬虫(Focused Crawter):垂直型爬虫关注特定主题内容或者属于特定行业的网页,比如 对于健康网站来说,只需要从互联网页

[python爬虫]简单爬虫功能

在我们日常上网浏览网页的时候,经常会看到某个网站中一些好看的图片,它们可能存在在很多页面当中,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材. 我们最常规的做法就是通过鼠标右键,选择另存为.但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度.就算可以弄下来,但是我们需要几千个页面当中的图片,如果一个一个下载,你的手将残.好吧-!其实你很厉害的,右键查看页面源代码. 我们可以通过python 来实现这样一个简单的爬

python爬虫 ----文章爬虫(合理处理字符串中的\n\t\r........)

import urllib.request import re import time num=input("输入日期(20150101000):") def openpage(url): html=urllib.request.urlopen(url) page=html.read().decode('gb2312') return page def getpassage(page): passage = re.findall(r'<p class="MsoNorma

Java豆瓣电影爬虫——小爬虫成长记(附源码)

以前也用过爬虫,比如使用nutch爬取指定种子,基于爬到的数据做搜索,还大致看过一些源码.当然,nutch对于爬虫考虑的是十分全面和细致的.每当看到屏幕上唰唰过去的爬取到的网页信息以及处理信息的时候,总感觉这很黑科技.正好这次借助梳理Spring MVC的机会,想自己弄个小爬虫,简单没关系,有些小bug也无所谓,我需要的只是一个能针对某个种子网站能爬取我想要的信息就可以了.有Exception就去解决,可能是一些API使用不当,也可能是遇到了http请求状态异常,又或是数据库读写有问题,就是在这

怎么编写微博爬虫 图片爬虫

背景:实验室大数据分析需要得到社交网站的数据,首选当然是新浪.数据包括指定关键词.话题.位置的微博的内容.字段包括:图片.时间.用户.位置信息. 思路分析:要爬新浪的数据主要有2种方法: 1.微博开发者平台提供的微博API,资源包括微博内容.评论.用户.关系.话题等信息.同时,你也可以申请高级接口.商业接口获得更多权限,你要去注册申请成为开发者获得OAuth2授权以及这个使用参考,审核大约要1周.也可以直接使用别人分享的APPKEY. 优点是简单,有专门的问答社区,代码更新方便,可以获得real