这篇文章通过简单的Python爬虫(未使用框架,仅供娱乐)获取并下载煎蛋网妹子图指定页面或全部图片,并将图片下载到磁盘。
首先导入模块:urllib.request、re、os
import urllib.request import re import os
urllib.request模块用于获取HTML页面数据
re模块用于通过正则表达式解析并截取HTML页面图片url
os模块用于文件夹相关操作
代码不多,直接贴出来,代码解释在注释中:
def crawl_jiandan(page, path): """ :param page:获取指定页面数据,值为0或超过最大值则爬取全部数据 :param path:文件存储路径,没有目录则创建目录 """ if page < 0: return # 路径是否存在,不存在则创建目录 if not os.path.exists(path): os.mkdir(path) # 切换到目录 os.chdir(path) # 煎蛋网妹子图首页 url = ‘http://jandan.net/ooxx/page-%d#comments‘ % page while True: request = urllib.request.Request(url) request.add_header(‘User-Agent‘, ‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:54.0) Gecko/20100101 Firefox/54.0‘) with urllib.request.urlopen(request) as response: html = response.read().decode(‘utf-8‘) # print(html) items = re.findall(re.compile(r‘<div class="text"><span class="righttext"><a ‘ r‘href="http://.+">[0-9]+</a></span><p><a ‘ r‘href="//(.+\.jpg)" target="_blank" class="view_img_link">‘), html) next_url = re.findall(re.compile(r‘<a title="Older Comments" href="(‘ r‘http://jandan.net/ooxx/page-[0-9]+#comments)" ‘ r‘class="previous-comment-page">‘), html) for item in items: filename = item.split(‘/‘)[-1] # 目录下是否已存在相同文件名,不存在则下载 if not os.path.exists(filename): print(item) urllib.request.urlretrieve(‘http://‘ + item, filename) if not len(next_url): return else: url = next_url[0] crawl_jiandan(1, ‘/Volumes/KE/IT源码/Python3/Python爬虫/煎蛋网妹子图‘)
打开本次磁盘,效果如下:
这里只显示了部分图像,有兴趣的可以下载煎蛋网所有妹子图,只需在上述函数中第一个参数传0即可
注意:此文仅供参考和娱乐,代码还不够严谨。
时间: 2024-10-10 15:47:58