Python爬虫获取迅雷会员帐号

代码如下:

 1 import re
 2 import urllib.request
 3 import urllib
 4 import time
 5
 6 from collections import deque
 7
 8 head = {
 9     ‘Connection‘: ‘Keep-Alive‘,
10     ‘Accept‘: ‘text/html, application/xhtml+xml, */*‘,
11     ‘Accept-Language‘: ‘en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3‘,
12     ‘User-Agent‘: ‘Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko‘
13 }
14 visited = set()
15
16 url = ‘http://xlfans.com‘  # 入口页面, 可以换成别的
17 data = None
18 full_url=urllib.request.Request(url,data,head)
19 urlop = urllib.request.urlopen(full_url)
20 data = urlop.read().decode(‘utf-8‘)
21 temp = re.search(r‘href=\"http://xlfans.com/archives/(.{4})\" class=\"thumbnail\">(.*) alt=\"迅雷粉 (.*) 迅雷会员账号分享 共享中‘, data, re.M|re.I)
22 result = re.search(r‘href=\"http://xlfans.com/archives/(.{4})‘, temp.group(), re.M|re.I)
23 url = url + "/archives/" + temp.group(1)
24 data = None
25 full_url=urllib.request.Request(url,data,head)
26 urlop = urllib.request.urlopen(full_url)
27 data = urlop.read().decode(‘utf-8‘)
28 save_path = ‘D:\\Program Files\\python\\test.txt‘
29 f_obj = open(save_path, ‘w‘)
30 #获取系统时间,来判断是否为周末
31 cur_day = time.strftime("%w",time.localtime(time.time()))
32 if(cur_day == ‘5‘):
33     string = "迅雷粉周末迅雷会员账号"
34 elif cur_day == ‘6‘:
35     string = "迅雷粉周末迅雷会员账号"
36     print(cur_day)
37 else:
38     string = "迅雷粉专享迅雷会员账号"
39 #娘的,是你逼我的
40 start = data.find(string)
41 data = data[start:]
42 data_que = data.split("</p>")
43 count = 0
44 for i in range(3):
45     data_temp = data_que[i]
46     num = -1
47     acc_que = data_temp.split("<br />")
48     for result in acc_que:
49         num = num + 1
50         if(count != 0):
51             if(num == 0):
52                 continue
53         f_obj.write(result)
54         f_obj.write("\n")
55     count = count + 1
56 f_obj.close()
57         
时间: 2024-09-30 15:05:57

Python爬虫获取迅雷会员帐号的相关文章

迅雷VIP帐号获取小工具

自己写的迅雷vip帐号获取工具,主要是熟悉一下正则表达式 下载地址: 迅雷VIP获取工具 另附vip防踢补丁,不能使用最新迅雷,我使用的是迅雷尊享版2.0.12.258,使用了一段时间,至少没被踢出来过. http://files.cnblogs.com/files/ztsghr/%E8%BF%85%E9%9B%B7%E9%98%B2%E8%B8%A2%E9%98%B2%E6%8C%A4%E9%98%B2%E9%A1%B6%E8%A1%A5%E4%B8%81.zip

Python爬虫获取图片并下载保存至本地的实例

今天小编就为大家分享一篇Python爬虫获取图片并下载保存在本地的实例,具有很好的参考价值,希望对大家有所帮助.一起来看看吧! 1.抓取煎蛋网上的图片 2.代码如下 * * * import urllib.request import os def url_open(url): req=urllib.request.Request(url) req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.3; WOW64; rv:51.0) Geck

Python爬虫实现的微信公众号文章下载器

平时爱逛知乎,收藏了不少别人推荐的数据分析.机器学习相关的微信公众号(这里就不列举了,以免硬广嫌疑).但是在手机微信上一页页的翻阅历史文章浏览,很不方便,电脑端微信也不方便. 所以我就想有什么方法能否将这些公众号文章下载下来.这样的话,看起来也方便.但是网上的方法要么太复杂(对于我这个爬虫入门新手来说),要么付费. 但我的需求其实却很简单--"方便的查找 / 检索 / 浏览相关公众号的任意文章",所以,一番学习检索后,上手做了一个小工具(打包成可执行文件了),虽然方法和代码相当简单,但

python 爬虫获取文件式网站资源完整版(基于python 3.6)

<--------------------------------下载函数-----------------------------> import requestsimport threading # 传入的命令行参数,要下载文件的url# url = 'http://www.nco.ncep.noaa.gov/pmb/codes/nwprod/nosofs.v3.0.4/fix/cbofs/nos.cbofs.romsgrid.nc' def Handler(start, end, url

Python爬虫获取JSESSIONID登录网站

在使用Python对一些网站的数据进行采集时,经常会遇到需要登录的情况.这些情况下,使用FireFox等浏览器登录时,自带的调试器(快捷键F12)就可以看到登录的时候网页向服务器提交的信息,把这部分信息提取出来就可以利用Python 的 urllib2 库结合Cookie进行模拟登录然后采集数据,如以下代码: #coding=utf-8 import urllib import urllib2 import httplib import cookielib url = 'http://www.x

python 爬虫获取世界杯比赛赛程

#!/usr/bin/python # -*- coding:utf8 -*- import requests import re import os import time # from urllib import json from bs4 import BeautifulSoup from datetime import date def getTimeExpire(time_play,time_gap): # print(time_play) try: time_arr=time.str

python 爬虫获取文件式网站资源(基于python 3.6)

import urllib.request from bs4 import BeautifulSoup from urllib.parse import urljoin from Cat.findLinks import get_link from Cat.Load import Schedule import osimport timeimport errno -------import的其余包代码---------------- def get_link(page): # 寻找链接的href

python爬虫获取豆瓣网前250部电影的详细信息

网址 https://movie.douban.com/top250 一共250部电影,有分页,获取每一部的详细信息 不采用框架,使用 urilib读取网页,re进行正则表达式匹配,lxml进行xpath查找 1 from film import * 2 from urllib import request 3 import time,re 4 url=r'https://movie.douban.com/top250?start=' 5 for i in range(10): 6 url=ur

python爬虫获取校园网新闻

首先打开校园网(以我的学校为例"http://www.zhbit.com/") 现在我们需要获取上图红色框框的数据并输出 下面我们打开浏览器的开发模式并定位到相应的代码 不难发现,学校要闻只显示5条信息 下面我们就开始写程序 # -*- coding:utf-8 -*- import urllib import urllib2 import re url = "http://www.zhbit.com/" #利用urllib2模块打开校园网 res = urllib