python使用redis实现ip代理池

一、代码

#使用apscheduler库定时爬取ip,定时检测ip删除ip,做了2层检测,第一层爬取后放入redis——db0进行检测,成功的放入redis——db1再次进行检测,确保获取的代理ip的可用性

import requests, redis
import pandas
import random

from apscheduler.schedulers.blocking import BlockingScheduler
import datetime
import logging

db_conn = redis.ConnectionPool(host="*.*.*.*", port=6379, password="123456")
redis_conn_0 = redis.Redis(connection_pool=db_conn, max_connections=10,db=0)
redis_conn_1 = redis.Redis(connection_pool=db_conn, max_connections=10,db=1)

# 删除redis数据库里的ip
def remove_ip(ip,redis_conn):
    redis_conn.zrem("IP", ip)
    print("已删除 %s..." % ip)

# 获取redis数据库里一共有多少ip
def get_ip_num(redis_conn):
    num = redis_conn.zcard("IP")
    return num

# 获取ip的端口
def get_port(ip,redis_conn):
    port = redis_conn.zscore("IP", ip)
    port = str(port).replace(".0", "")
    return port

# 添加ip和端口到数据库里
def add_ip(ip, port,redis_conn):
    # nx: 不要更新已有的元素。总是添加新的元素,只有True,False
    redis_conn.zadd("IP", {ip: port}, nx=55)
    print("已添加 %s %s...ok" % (ip, port))

# 列出所有的ip
def get_all_ip(redis_conn):
    all_ip = redis_conn.zrange("IP", 0, -1)
    return all_ip

# 随机获取一个ip
def get_random_ip(redis_conn):
    end_num = get_ip_num(redis_conn)
    num = random.randint(0, end_num)
    random_ip = redis_conn.zrange("IP", num, num)
    if not random_ip:
        return "",""
    random_ip = str(random_ip[0]).replace("b", ‘‘).replace("‘", "")
    port = get_port(random_ip,redis_conn)
    return random_ip, port

# 获取代理ip
def spider_ip(x,redis_conn):
    print(datetime.datetime.now().strftime(‘%Y-%m-%d %H:%M:%S‘), x)
    for p in range(1, 20):
        res = pandas.read_html("http://www.89ip.cn/index_{}.html".format(p))
        # print(res)
        # print(type(res[0]))
        for i in range(len(res[0])):
            ip = res[0].iloc[i, 0]
            port = res[0].iloc[i, 1]
            print("ip", ip)
            print("port", port)
            add_ip(str(ip), str(port),redis_conn)

logging.basicConfig(level=logging.INFO,
                    format=‘%(asctime)s %(filename)s[line:%(lineno)d] %(levelname)s %(message)s‘,
                    datefmt=‘%Y-%m-%d %H:%M:%S‘,
                    filename=‘log1.txt‘,
                    filemode=‘a‘)

def aps_detection_ip(x,redis_conn):
    print(datetime.datetime.now().strftime(‘%Y-%m-%d %H:%M:%S‘), x)
    res=get_random_ip(redis_conn)
    ip=res[0]
    port=res[1]
    try:
        requests.get("http://www.baidu.com",proxies={‘http‘:‘{ip}:{port}‘.format(ip=ip,port=port)})
        print("可用",ip,port,res)
        if redis_conn!=redis_conn_1:
            add_ip(str(ip), str(port), redis_conn_1)
    except Exception:
        # ip错误失效就删除
        remove_ip(ip,redis_conn)

scheduler = BlockingScheduler()
scheduler.add_job(func=aps_detection_ip, args=(‘检测循环任务0‘,redis_conn_0), trigger=‘interval‘, seconds=3, id=‘aps_detection_ip_task0‘,max_instances=10)
scheduler.add_job(func=spider_ip, args=(‘获取循环任务0‘,redis_conn_0), trigger=‘interval‘, seconds=60*60*2, id=‘spider_ip_task0‘,max_instances=10)

scheduler.add_job(func=aps_detection_ip, args=(‘检测循环任务1‘,redis_conn_1), trigger=‘interval‘, seconds=3, id=‘aps_detection_ip_task1‘,max_instances=10)

scheduler._logger = logging

# scheduler.start()
if __name__ == ‘__main__‘:
    # print(get_ip_num())
    # spider_ip("获取循环任务")
    scheduler.start()
    # aps_detection_ip("检测循环任务")

原文地址:https://www.cnblogs.com/angelyan/p/12157374.html

时间: 2024-10-09 21:50:00

python使用redis实现ip代理池的相关文章

Flask开发系列之Flask+redis实现IP代理池

Flask开发系列之Flask+redis实现IP代理池 6.11-6.15号完善... 简易实现版 import requests import re import time import redis from bloom_filter import BloomFilter import ast pool = redis.ConnectionPool(host='localhost',password='xxx', port=6379, decode_responses=True) r = r

Python - 定时动态获取IP代理池,存放在文件中

定时功能通过module time + 死循环实现,因为time.sleep()会自动阻塞 get_ip_pool.py """ @__note__: while True + time.sleep实现定时更新代理池文件(ip_pool) @__how_to_use: 1. 直接另开终端运行.(但终端会阻塞) 2. 后台运行. Unix, 后台运行脚本: <script_name> & """ import requests

python开源IP代理池--IPProxys

今天博客开始继续更新,谢谢大家对我的关注和支持.这几天一直是在写一个ip代理池的开源项目.通过前几篇的博客,我们可以了解到突破反爬虫机制的一个重要举措就是代理ip.拥有庞大稳定的ip代理,在爬虫工作中将起到重要的作用,但是从成本的角度来说,一般稳定的ip池都很贵,因此我这个开源项目的意义就诞生了,爬取一些代理网站提供的免费ip(虽然70%都是不好使的,但是扛不住量大,网站多),检测有效性后存储到数据库中,同时搭建一个http服务器,提供一个api接口,供大家的爬虫程序调用. 好了,废话不多说,咱

Python爬虫之ip代理池

可能在学习爬虫的时候,遇到很多的反爬的手段,封ip 就是其中之一. 对于封IP的网站.需要很多的代理IP,去买代理IP,对于初学者觉得没有必要,每个卖代理IP的网站有的提供了免费IP,可是又很少,写了个IP代理池 .学习应该就够了 ip代理池: 1,在各大网站爬去免费代理ip2,检查ip可用 可用存入数据库1和23,在数据库1中拿出少量代理ip存入数据库2(方便维护)4,定时检查数据库1和数据库2的代理数量,以及是否可用5,调用端口 1,在各大网站爬去免费代理ip 1 def IPList_61

python爬虫+多线程+多进程+构建IP代理池

目标网站:静听网 网站url:http://www.audio699.com/ 目标文件:所有在线听的音频文件 附:我有个喜好就是晚上睡觉听有声书,然而很多软件都是付费才能听,免费在线网站虽然能听,但是禁ip很严重,就拿静听网来说,你听一个在线音频,不能一个没听完就点击下一集,甚至不能快进太快,否则直接禁你5分钟才能再听,真的是太太讨厌了... 于是我就想用爬虫给它爬下来存储本地就nice了. 我把我的大概分析步骤分享出来. 步骤1: 我查看静听网网页url有一个规律,基网址是http://ww

打造IP代理池,Python爬取Boss直聘,帮你获取全国各类职业薪酬榜

爬虫面临的问题 不再是单纯的数据一把抓 多数的网站还是请求来了,一把将所有数据塞进去返回,但现在更多的网站使用数据的异步加载,爬虫不再像之前那么方便 很多人说js异步加载与数据解析,爬虫可以做到啊,恩是的,无非增加些工作量,那是你没遇到牛逼的前端,多数的解决办法只能靠渲染浏览器抓取,效率低下,接着往下走 ? 千姿百态的登陆验证 从12306的说说下面哪个糖是奶糖,到现在各大网站的滑动拼图.汉子点击解锁,这些操作都是在为了阻止爬虫的自动化运行. 你说可以先登录了复制cookie,但cookie也有

小白也能做的IP代理池,好久没更新了,不知道你们想看什么呢!

IP代理池制作 GitHub主页: https://github.com/hfldqwe/ 使用工具: ip代理抓取: requests 后台搭建: Django+Redis 代理检测: ip地址查询:http://ip.chinaz.com/ 这个网站提供的接口:http://ip.chinaz.com/getip.aspx 代理抓取地址: 西刺代理:http://www.xicidaili.com/nn/ + num 设计思路 爬取代理ip,获取如下信息: IP地址 端口 服务器地址 类型

scrapy_随机ip代理池

什么是ip代理? 我们电脑访问网站,其实是访问远程的服务器,通过ip地址识别是那个机器访问了服务器,服务器就知道数据该返回给哪台机器,我们生活中所用的网络是局域网,ip是运营商随机分配的,是一种直接访问服务器的方式 代理服务器是一种间接方式,本地机器访问ip代理服务器,ip代理服务器帮我们发起服务请求,然后代理服务器接收数据返回给本机,由于中间有了层ip代理服务器,访问的速度和稳定性取决于代理服务器的性能 常规访问: 用户 >> ip  >> 服务器 代理访问: 用户用户 >

ip代理池-基于mongodb数据库

代码用的python2.7,抓取xici免费代理,检测放入数据库中,为以后爬虫做准备.下面直接上代码 1 #-*-encoding=utf-8-*- 2 3 import requests 4 from lxml import etree 5 import time 6 import pymongo 7 from multiprocessing import Pool 8 9 10 class Getproxy(object): 11 def __init__(self): 12 self.he