一、主要思路
- scrapy爬取是有课程地址及名称
- 使用multiprocessing进行下载
- 就是为了爬点视频,所以是简单的代码堆砌
- 想而未实行,进行共享的方式
二、文件说明
- itemsscray字段
- piplines.py存储数据库
- setting.py scrapy配置 需要注意的是DEFAULT_REQUEST_HEADERS的设置,需要模拟登录
- mz.py是主要爬虫 都是基本的爬虫功能,css+xpath+正则
- start_urls = ["http://www.maiziedu.com/course/web/", ]只爬了web的,可根据需要进行,或者全部,
- 本想不存储进数据库,直接在mz.py进行下载,但考虑到位会影响scrapy原有的性能,单独进行下载
- down.py 使用multiprocessing进行下载 原本想着动态监听scrapy在数据库的中的结果,想实现进程的共享,调试多次还出现问题所以直接用Pool.Map()这种比较粗暴的方式,
- mz.json现存取进json,但考虑到来回操作json文件,影响效率,所以改用数据库
三、结果
- 源码 :https://yunpan.cn/crjn7J97xUD8F 访问密码 6219
- 视频地址:https://yunpan.cn/crjXKLGnkpzPk 访问密码 6c15
时间: 2024-10-10 23:53:58