Scrapyd部署

从github(https://github.com/scrapy/scrapyd)下载安装包
放到D:\python\Lib\site-packages\

解压压缩包:cd 到解压目录

python setup.py install

执行命令:Scrapyd;如下证明安装成功

在项目中找到scrapy.cfg文件,编辑如下:

在scrapy.cfg所在目录中执行命令:

scrapyd-deploy Myploy -p Test #在scrapy.cfg文件有配置

报错:‘scrapyd-deploy‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件。

在windows上使用scrapyd-client

安装后,并不能使用相应的命令‘scrapyd-deploy‘

需要在"C:\Python27\Scripts" 目录下 增加scrapyd-deploy.bat文件

内容填充为:

@echo off

"C:\python27\python.exe" "C:\python27\Scripts\scrapyd-deploy" %1 %2 %3 %4 %5 %6 %7 %8 %9

在scrapy.cfg所在目录中重新执行命令:

scrapyd-deploy Myploy -p Test #在scrapy.cfg文件有配置

现在只是将项目发布到目标地址,但是没有调度爬虫,调度爬虫需要用到curl命令,如下:spd是自定义的:
curl http://localhost:6800/schedule.json -d project=testscrapy -d spider=spd

如果window下没有安装crul工具包,会
报错:curl不是内部或外部命令,也不是可运行的程序 或批处理文件。
下载:http://curl.haxx.se/download.html;找到系统对应的版本;下载到本地并解压,找到curl.exe 所在路径配置到系统环境变量中;

再次输入:

curl http://localhost:6800/schedule.json -d project=testscrapy -d spider=spd



参考:http://www.jianshu.com/p/694a56b2199a

http://blog.wiseturtles.com/posts/scrapyd.html

http://blog.csdn.net/xxwang6276/article/details/45745181

时间: 2024-11-11 09:00:26

Scrapyd部署的相关文章

五十一 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目

scrapyd模块是专门用于部署scrapy项目的,可以部署和管理scrapy项目 下载地址:https://github.com/scrapy/scrapyd 建议安装 pip3 install scrapyd 首先安装scrapyd模块,安装后在Python的安装目录下的Scripts文件夹里会生成scrapyd.exe启动文件,如果这个文件存在说明安装成功,我们就可以执行命令了 启动scrapyd服务 在命令输入:scrapyd 如图说明启动成功,关闭或者退出命令窗口,因为我们正真的使用是

使用Scrapyd部署Scrapy爬虫到远程服务器上

1.准备好爬虫程序 2.修改项目配置 找到项目配置文件scrapy.cnf,将里面注释掉的url解开来 本代码需要连接数据库,因此需要修改对应的数据库配置 其实就是将里面的数据库地址进行修改,变成远程数据库服务器地址,需要保证scrapy服务器能够连接数据库服务器 3.部署项目 在部署项目之前要保证scrapyd服务是开启状态. 进入本地爬虫工程的目录 执行对应的部署命令 4.调度爬虫 调度爬虫需要使用curl,以下的命令可以在dos窗口对应的项目目录下面执行,也可以在pycharm中的命令行执

关于scrapyd部署出错问题 求解讨论

原文地址:https://blog.51cto.com/14759548/2481958

django--关于部署scrapyd项目报错问题

首先在同步两篇之前写过的博客,可能能用得到 1.https://www.cnblogs.com/lutt/p/10893192.html2.https://www.cnblogs.com/lutt/p/10895317.html在上述操作的过程中,在执行命令:scrapyd-deploy时遇报错: /usr/local/bin/scrapyd-deploy:23: ScrapyDeprecationWarning: Module `scrapy.utils.http` is deprecated

Python爬虫从入门到放弃(二十一)之 Scrapy分布式部署

按照上一篇文章中我们将代码放到远程主机是通过拷贝或者git的方式,但是如果考虑到我们又多台远程主机的情况,这种方式就比较麻烦,那有没有好用的方法呢?这里其实可以通过scrapyd,下面是这个scrapyd的github地址:https://github.com/scrapy/scrapyd 当在远程主机上安装了scrapyd并启动之后,就会再远程主机上启动一个web服务,默认是6800端口,这样我们就可以通过http请求的方式,通过接口的方式管理我们scrapy项目,这样就不需要在一个一个电脑连

Scrapy学习-25-Scrapyd部署spider

Scrapyd部署爬虫项目 github项目  https://github.com/scrapy/scrapyd  官方文档  http://scrapyd.readthedocs.org/  安装scrapyd  http://scrapyd.readthedocs.io/en/stable/install.html  运行 # 在虚拟环境中使用scrapd命令 # scrapyd是一个服务器监听在本地的6800端口 scrapyd 安装scrapd客户端 pip install scrap

python分布式爬虫打造搜索引擎--------scrapy实现

最近在网上学习一门关于scrapy爬虫的课程,觉得还不错,以下是目录还在更新中,我觉得有必要好好的做下笔记,研究研究. 第1章 课程介绍 1-1 python分布式爬虫打造搜索引擎简介 07:23 第2章 windows下搭建开发环境 2-1 pycharm的安装和简单使用 10:27 2-2 mysql和navicat的安装和使用 16:20 2-3 windows和linux下安装python2和python3 06:49 2-4 虚拟环境的安装和配置 30:53 第3章 爬虫基础知识回顾

神级python程序员只需要一个公众号,再也不会错过重要资讯

Python(发音:英[?pa?θ?n],美[?pa?θɑ:n]),是一种面向对象.直译式电脑编程语言,也是一种功能强大的通用型语言,已经具有近二十年的发展历史,成熟且稳定.它包含了一组完善而且容易理解的标准库,能够轻松完成很多常见的任务.它的语法非常简捷和清晰,与其它大多数程序设计语言不一样,它使用缩进来定义语句. Python支持命令式程序设计.面向对象程序设计.函数式编程.面向切面编程.泛型编程多种编程范式.与Scheme.Ruby.Perl.Tcl等动态语言一样,Python具备垃圾回收

Python分布式爬虫打造搜索引擎网站(价值388元)

未来是什么时代?是数据时代!数据分析服务.互联网金融,数据建模.自然语言处理.医疗病例分析--越来越多的工作会基于数据来做,而爬虫正是快速获取数据最重要的方式,相比其它语言,Python爬虫更简单.高效 ----------------------课程目录------------------------------ 第1章 课程介绍:介绍课程目标.通过课程能学习到的内容.和系统开发前需要具备的知识 第2章 windows下搭建开发环境:介绍项目开发需要安装的开发软件. python虚拟virtu