爬虫 spider

python 2.x

# -*- coding: utf-8 -*-import reimport urllib

url = ‘http://tieba.baidu.com/p/4872795764‘page = urllib.urlopen(url)html = page.read()

r = ‘src="(.*?\.jpg)" size‘         # 注意此处?的作用,取消贪婪匹配 结合findall方法,只匹配分组中的内容imgre = re.compile(r)imglist = re.findall(imgre, html)

count = 0for imgurl in imglist:    urllib.urlretrieve(imgurl, filename=‘mac_book Pro %s.jpg‘ % count)    count += 1

函数:

def gethtml(url):    html = urllib.urlopen(url).read()    return html

def getimg(html):    r = ‘src="(.*?\.jpg)" size‘    imgre = re.compile(r)    imglist = re.findall(imgre, html)    print imglist    count = 0    for imgurl in imglist:        urllib.urlretrieve(imgurl, filename=‘mac_book_Pro_%s.jpg‘ % count)        count += 1html = gethtml(‘http://tieba.baidu.com/p/4872795764‘)getimg(html)
时间: 2024-11-09 14:46:20

爬虫 spider的相关文章

爬虫(Spider),反爬虫(Anti-Spider),反反爬虫(Anti-Anti-Spider)

爬虫(Spider),反爬虫(Anti-Spider),反反爬虫(Anti-Anti-Spider),这之间的斗争恢宏壮阔... Day 1小莫想要某站上所有的电影,写了标准的爬虫(基于HttpClient库),不断地遍历某站的电影列表页面,根据 Html 分析电影名字存进自己的数据库.这个站点的运维小黎发现某个时间段请求量陡增,分析日志发现都是 IP(1.1.1.1)这个用户,并且 useragent 还是 JavaClient1.6 ,基于这两点判断非人类后直接在Nginx 服务器上封杀.

什么是网络爬虫(Spider) 程序

Spider又叫WebCrawler或者Robot,是一个沿着链接漫游Web 文档集合的程序.它一般驻留在服务器上,通过给定的一些URL,利用HTTP等标准协议读取相应文档,然后以文档中包括的所有未访问过的URL作为新的起点,继续进行漫游,直到没有满足条件的新URL为止.WebCrawler的主要功能是自动从Internet上的各Web 站点抓取Web文档并从该Web文档中提取一些信息来描述该Web文档,为搜索引擎站点的数据库服务器追加和更新数据提供原始数据,这些数据包括标题.长度.文件建立时间

scrapy 知乎关键字爬虫spider代码

以下是spider部分的代码.爬知乎是需要登录的,建议使用cookie就可以了,如果需要爬的数量预计不多,请不要使用过大的线程数量,否则会过快的被封杀,需要等十几个小时账号才能使用,得不偿失. 1 # -*- coding: utf-8 -*- 2 import scrapy 3 from scrapy import Request 4 from scrapy import log 5 import logging 6 #from zhihu.items import ZhihuItem 7 f

关于一只爬虫

记一只爬虫 记一只爬虫 新建project scrapy startproject tutorial 这些文件主要是: scrapycfg:项目配置文件,一般不需要改 tutorial/:项目python模块,代码将从这里导入 tutorial/items.py:项目items文件 tutorial/pipelines.py:项目管道文件 tutorial/settings.py:项目配置文件 tutorial/spiders/:放置spider的目录 定义Item Items是将要装载机抓取的

基于requests实现极客学院课程爬虫

背景 本文主要是为了完成极客学院课程<Python 单线程爬虫>中讲师布置的实战作业. 开发环境 操作系统:windows 10 Python :Python 2.7 IDE:PyCharm 4.5.3 安装requests 在CMD命令提示窗口敲以下一行命令即可安装. pip install requests 实现代码 # coding=utf-8 __author__ = 'scaleworld' import requests import re import sys reload(sy

分布式爬虫:使用Scrapy抓取数据

分布式爬虫:使用Scrapy抓取数据 Scrapy是Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. 官方主页: http://www.scrapy.org/ 中文文档:Scrapy 0.22 文档 GitHub项目主页:https://github.com/scrapy/scrapy Scrapy 使用了 Twisted 异步网络库来处理网络通讯.整体架构大致如下(注:图片来自

Python 网络爬虫单线程版

re.S让.能够匹配\n,默认情况点是不能匹配换行符的 1.爬取网页源码中的图片 #-*- coding:utf-8 -*- import re import requests with open('source.txt', 'r') as f:     html = f.read() #匹配图片网址,括号中为需要返回的内容 pic_url = re.findall('img src="(.*?)" class="lessonimg"', html, re.M) i

python 网络爬虫框架scrapy使用说明

1 创建项目scrapy startproject tutorial 2 定义Itemimport scrapyclass DmozItem(scrapy.Item):    title = scrapy.Field()    link = scrapy.Field()    desc = scrapy.Field()paser完后的数据保存到item列表,在传给pipeline使用 3 编写第一个爬虫(Spider), 保存在 tutorial/spiders 目录下的 dmoz_spider

Python2 爬虫(六) -- 初尝Scrapy框架

1.Scrapy简介 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中. 其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫. Scrapy官网文档 -- 戳我 本来我是基于Python3.5学习爬虫的,但是Python3.x不支持Scrapy框架.即便不支持,也不能就此放弃