下载scrapy
在命令行下输入: sudo apt-get install python-scrapy
或者进入http://scrapy.org下载安装
新建项目
命令行下进入项目目录,输入scrapy startproject start
新建一个名为start的项目
项目结构如下
start/ scrapy.cfg start/ __init__.py items.py pipelines.py settings.py spiders/ __init__.py
各文件的作用如下:
- scrapy.cfg: 项目配置文件
- items.py: 项目items文件
- pipelines.py: 项目管道文件
- settings.py: 项目配置文件
- spiders: 放置spider的目录
开始简单爬虫
在spiders目录下新建文件qiushi.py 代码如下:from scrapy.spider import BaseSpider class QiushiSpider(BaseSpider): name = "qiushi" allowed_domains = ["qiushibaike.com","www.qiushibaike.com"] start_urls = ["http://www.qiushibaike.com/"] def parse(self,response): filename = response.url.split("/")[-2] open(filename,'wb').write(response.body)
返回项目主目录,执行scrapy crawl qiushi
执行完毕后,项目内会出现爬取网页文件
时间: 2024-12-17 10:56:55