使用Scrapyd部署Scrapy爬虫到远程服务器上

1、准备好爬虫程序

2、修改项目配置

  找到项目配置文件scrapy.cnf,将里面注释掉的url解开来

  本代码需要连接数据库,因此需要修改对应的数据库配置

    其实就是将里面的数据库地址进行修改,变成远程数据库服务器地址,需要保证scrapy服务器能够连接数据库服务器

3、部署项目

  在部署项目之前要保证scrapyd服务是开启状态。  

  进入本地爬虫工程的目录

  执行对应的部署命令

4、调度爬虫

  调度爬虫需要使用curl,以下的命令可以在dos窗口对应的项目目录下面执行,也可以在pycharm中的命令行执行

  4.1、查看远程服务端上面的爬虫

    curl http://node100:6800/listprojects.json

  4.2、移除远程服务端上面部署的爬虫工程

    curl http://node100:6800/delproject.json -d project=doubanSpider

  4.3、启动爬虫

    curl http://node100:6800/schedule.json -d project=doubanSpider -d spider=douban

  4.4、取消爬虫

    curl http://node100:6800/cancel.json -d project=doubanSpider -d job=000f47e035e911e9a8e90bb05244259f

原文地址:https://www.cnblogs.com/tulintao/p/11621077.html

时间: 2024-12-14 02:35:23

使用Scrapyd部署Scrapy爬虫到远程服务器上的相关文章

解决git pull 命令失效,不能从远程服务器上拉取代码问题

用时候在用Git pull命令的时候不管用,拉取不下来远程分支上的代码,是因为本地分支和远程分支没有建立关联. 处理这种问题很简单就按照提示执行命令即可:git branch --set-upstream-to=origin/fixbug-2.9.8 fixbug-2.9.8 如果想保证这种情况不出现就在建立新分支推送到远程分支上的时候加上-u参数即可 git push -u origin feature- 解决git pull 命令失效,不能从远程服务器上拉取代码问题

scp 从远程服务器上一下载文件

scp -P202 xx3.x6.xx.xx:/usr/local/zookeeper-3.4.6.zip /tmp #指定远程服务器的端口和远程服务器的目标文件 ,最后指定要下载到本的地目录 也可以从远程服务器上把整个目录下载下来: scp -P3332 -r xx2.x2.1xxx.x4:/apps/tengine ./ #把远程服务器上的tengine目录下载到本地当前目录里 注意:如果远程主机的目标目录有同名的文件会被强制覆盖!!!

在远程服务器上完成本地设备的程序烧写和调试(基于vivado ,SDK软件)

在使用vivado和SDK进行设计开发的时候,通常需要登录到远程服务器上进行,但是会遇到一个问题就是,所使用的开发板通常是连接在自己的电脑上(local-PC),那要怎么才能让运行在服务器上的设计软件检测到连接在本地的设备呢?Vivado开发套件提供了一个解决方法,就是使用Hardware Server,具体实现步骤如下: 1. 在local-PC上找到Vivado或SDK的安装目录,并在该目录下找到hw_server程序,具体路径为: <Vivado_install_root>\bin或者&

运维小东西:每天备份sql到远程服务器上

首先两台服务器可以无密码登录(这个方式比较简单,当然安全系数会降低) #ssh-keygen -t rsa #生成密钥发送给远程服务器上 #ssh-copy-id ~/root/id_rsa.pub [email protected] 这样ssh的时候就不用输入密码了.对于crontab这种定时自动运行的任务来说还是比较方便的. 现在就是写shell备份sql到远程服务器的脚本: #!/bin/sh DB_NAME1="" DB_USER="" DB_PASS=&q

pexpect练习实例--批量执行远程服务器上的指定脚本

经过几天的学习,pexpect模块对于linux下运维脚本编写属实有用,下面写个脚本检验下学习效果. #!/usr/bin/env python #coding=utf-8 #远程执行服务器上的脚本 import sys, time, os, multiprocessing try: import pexpect except ImportError: print """ You must install pexpect module """ s

在Mac机器上给ITerm2配置lrzsz,便捷的传输文件到远程服务器上

可直接参考文档:http://danqingdani.blog.163.com/blog/static/18609419520141201215750 需要使用到的github脚本:https://github.com/mmastrac/iterm2-zmodem 或简明步骤如下: 1.安装Iterm2, homebrew 2.安装lrzsz: $brew install lrzsz 3.下载github上的脚本,然后copy到/usr/local/bin中 4.在ITerm2中对应的profi

模拟php curl向远程服务器上传文件

test.php: <?php header('content-type:text/html;charset=utf8'); $ch = curl_init(); //加@符号curl就会把它当成是文件上传处理 $data = array('img'=>'@'. dirname(__FILE__).'/img/1.jpg'); curl_setopt($ch,CURLOPT_URL,"http://localhost:8088/curl/get_img.php"); cur

使用UIWebView加载本地或远程服务器上的网页

大家都知道,使用UIWebView加载本地或远程服务器上的网页,sdk提供了三个加载接口: - (void)loadRequest:(NSURLRequest *)request; - (void)loadHTMLString:(NSString *)string baseURL:(NSURL *)baseURL; - (void)loadData:(NSData *)data MIMEType:(NSString *)MIMEType textEncodingName:(NSString *)

五十一 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目

scrapyd模块是专门用于部署scrapy项目的,可以部署和管理scrapy项目 下载地址:https://github.com/scrapy/scrapyd 建议安装 pip3 install scrapyd 首先安装scrapyd模块,安装后在Python的安装目录下的Scripts文件夹里会生成scrapyd.exe启动文件,如果这个文件存在说明安装成功,我们就可以执行命令了 启动scrapyd服务 在命令输入:scrapyd 如图说明启动成功,关闭或者退出命令窗口,因为我们正真的使用是