1.
from scrapy_redis.spiders import RedisSpider
导入依赖包更改继承类
2.打开redis服务
redis-server --server-start
3.修改配置文件
#启用Redis调度存储请求队列 SCHEDULER = "scrapy_redis.scheduler.Scheduler" #确保所有的爬虫通过Redis去重 DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter" #默认请求序列化使用的是pickle 但是我们可以更改为其他类似的。PS:这玩意儿2.X的可以用。3.X的不能用 #SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat" #不清除Redis队列、这样可以暂停/恢复 爬取 #SCHEDULER_PERSIST = True #使用优先级调度请求队列 (默认使用) #SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.PriorityQueue‘ #可选用的其它队列 #SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.FifoQueue‘ #SCHEDULER_QUEUE_CLASS = ‘scrapy_redis.queue.LifoQueue‘ #最大空闲时间防止分布式爬虫因为等待而关闭 #SCHEDULER_IDLE_BEFORE_CLOSE = 10 #将清除的项目在redis进行处理 ITEM_PIPELINES = { ‘scrapy_redis.pipelines.RedisPipeline‘: 300 } #序列化项目管道作为redis Key存储 #REDIS_ITEMS_KEY = ‘%(spider)s:items‘ #默认使用ScrapyJSONEncoder进行项目序列化 #You can use any importable path to a callable object. #REDIS_ITEMS_SERIALIZER = ‘json.dumps‘ #指定连接到redis时使用的端口和地址(可选) #REDIS_HOST = ‘localhost‘ #REDIS_PORT = 6379 #指定用于连接redis的URL(可选) #如果设置此项,则此项优先级高于设置的REDIS_HOST 和 REDIS_PORT REDIS_URL = ‘redis://@localhost:6379‘ #自定义的redis参数(连接超时之类的) #REDIS_PARAMS = {} #自定义redis客户端类 #REDIS_PARAMS[‘redis_cls‘] = ‘myproject.RedisClient‘ #如果为True,则使用redis的‘spop‘进行操作。 #如果需要避免起始网址列表出现重复,这个选项非常有用。开启此选项urls必须通过sadd添加,否则会出现类型错误。 #REDIS_START_URLS_AS_SET = False #RedisSpider和RedisCrawlSpider默认 start_usls 键 #REDIS_START_URLS_KEY = ‘%(name)s:start_urls‘ #设置redis使用utf-8之外的编码 #REDIS_ENCODING = ‘latin1‘
4.在cmd窗口切换到redis目录下
如果 REDIS_START_URLS_AS_SET = False
命令为 redis-cli lpush 项目名:start_urls 启动链接
如果 REDIS_START_URLS_AS_SET = True
命令为 redis-cli sadd 项目名:start_urls 启动链接
原文地址:https://www.cnblogs.com/404NooFound/p/10367550.html
时间: 2024-10-21 23:00:07