Scrapy框架——安装以及新建scrapy文件

一.安装

conda install Scrapy   :之后在按y 表示允许安装相关的依赖库(下载速度慢的话也可以借助镜像源),安装的前提是安装了anaconda作为python ,   测试scrapy是否安装成功,在窗口输入scrapy回车

注意:我这是之前安装了anaconda  所以能直接这样下载    如果没有则需要自己一个一个下载依赖库 和scrapy   但是可以借助豆瓣的镜像源来快速安装

    格式:     pip  install   -i https://pypi.douban.com/simaple/  scrapy

  

二.创建scrapy项目的过程:

  1.首先进入到你所要创建项目文件的路径下。cd  ……

    2.scrapy startproject 项目(文件)名  ------这就是创建一个scrapy项目文件了

    

   3.cd (我们刚刚刚创建的)项目(文件)名。

    4.scrapy  genspider   spider的一个名称(一个.py的爬虫文件)   spider的域名(爬取的网页的网址)

    

5上面我们创建了一个scrapy文件 并且在spider(scrapy项目文件下)下创建一个.py文件 ,名字是jobbole 地址blog.jobbole.com (伯乐在线的)

    我通过pycharme打开scrapy文件,如图:

      

三.好了,这样我就可以在创建的.py的jobbole的爬虫文件下写代码了。

  

原文地址:https://www.cnblogs.com/hum0ro/p/9490673.html

时间: 2024-10-09 01:43:00

Scrapy框架——安装以及新建scrapy文件的相关文章

Python爬虫进阶三之Scrapy框架安装配置

初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1.安装Python 安装过程我就不多说啦,我的电

Python爬虫进阶之Scrapy框架安装配置

Python爬虫进阶之Scrapy框架安装配置 初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1

Eclipse中安装可以新建html文件的插件(Eclipse HTML Editor)

最近在eclipse中开发android项目,用到了jquery mobile框架,则会涉及到新建html文件,发现eclipse不自带新建html文件的插件,必须得新建一个其他形式的文件,譬如xml格式的文件,然后重命名,后缀名改成html,觉得这样老麻烦的,所以在网上发现了Eclipse HTML Editor,不过此插件似乎只支持新建html文件,不支持其格式化.网上看了其他一个html格式化的插件Eclipse Tidy,不过用了后,发现格式化后的html一点都不符合代码审读标准.也不知

芝麻HTTP:Python爬虫进阶之Scrapy框架安装配置

初级的爬虫我们利用urllib和urllib2库以及正则表达式就可以完成了,不过还有更加强大的工具,爬虫框架Scrapy,这安装过程也是煞费苦心哪,在此整理如下. Windows 平台: 我的系统是 Win7,首先,你要有Python,我用的是2.7.7版本,Python3相仿,只是一些源文件不同. 官网文档:http://doc.scrapy.org/en/latest/intro/install.html,最权威哒,下面是我的亲身体验过程. 1.安装Python 安装过程我就不多说啦,我的电

Python爬虫——Scrapy框架安装

在编写python爬虫时,我们用requests和Selenium等库便可完成大多数的需求,但当数据量过大或者对爬取速度有一定要求时,使用框架来编写的优势也就得以体现.在框架帮助下,不仅程序架构会清晰许多,而且爬取效率也会增加,所以爬虫框架是编写爬虫的一种不错的选择. 对于python爬虫框架,目前较为热的是Scrapy,其是一个专门爬取web结构性数据的应用框架.Scrapy是一个强大的框架,所依赖的库也较多,比如有lxml,pyOpenSSL和Twisted等,这些库在不同的平台下要求也不一

scrapy框架安装配置

scrapy框架 scrapy安装(win) 1.pip insatll wheel 2.下载合适的版本的twisted:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted 3.安装twisted,到同一个目录,然后pip install 4.pip install pywin32 5.pip intstall scrapy 如果:在终端输入scrapy没有问题就是安装成功了 执行工程 scrapy crawl 工程名字 爬虫文件信息 # -*-

Scrapy框架安装与使用(基于windows系统)

“人生苦短,我用python”.最近了解到一个很好的Spider框架——Scrapy,自己就按着官方文档装了一下,出了些问题,在这里记录一下,免得忘记. Scrapy的安装是基于Twisted进行安装的,在Python3.8的环境中,并不像是网上许多教程所说的那样需要安装许多的插件,只需要安装好Twisted就够了.所以,为了确保一次安装成功,我们首先要安装Twisted. 下载Twisted网址:https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下拉找到如

我的第一篇博文,Python+scrapy框架安装。

自己用Python脚本写爬虫有一段时日了,也抓了不少网页,有的网页信息两多,一个脚本用exe跑了两个多月,数据还在进行中.但是总觉得这样抓效率有点低,问题也是多多的,很早就知道了这个框架好用,今天终于鼓起勇气安装这个了. 在网上找了些文档,按绝安装方法大同小异,就开始安装了.现在将这些比较好的网站给贴出来,可以供大家看看http://my.oschina.net/xtfjt1988/blog/364577, http://blog.fishc.com/4008.html  按照这个步骤基本可以安

爬虫scrapy框架安装使用

安装:   pip   install   scrapy 安装可能会出现问题,此时需要下载一个依赖包 在  这个网站:  https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted 下载对应版本,,注意,,python3.6  adm64位对应 pip   install  文件的完成路径 安装成功后 开始使用: 创建项目:scrapy startproject  项目名 目录结构如下: 生成爬虫文件:终端cd进入到 first目录下 执行命令:scr