孤荷凌寒自学python第八十二天学习爬取图片2

(完整学习过程屏幕记录视频地址在文末)

今天在昨天基本尝试成功的基础上,继续完善了文字和图片的同时爬取并存放在word文档中。

一、我准备爬取一个有文字也有图片的博客页面

https://www.cnblogs.com/forever-snow/p/8506746.html

二、具体代码

```

import requests

from bs4 import BeautifulSoup

import re

import datetime

import pymongo

import os

from contextlib import closing

from docx.shared import RGBColor #将三个数值生成色彩对象

import _mty

import _mf

import _mbs4

import _mmongo

import _mre

import _mdb

import _mword

import _mrequests

intc=0

def msgbox(info,titletext=‘孤荷凌寒的DB模块对话框QQ578652607‘,style=0,isShowErrMsg=False):

return _mty.msgboxGhlh(info,titletext,style,isShowErrMsg)

#定义一个读取完成单个博客园页面的函数

def getapage(strurl,strsavepath,strsavefile):

os.makedirs(strsavepath, exist_ok=True)

doc=_mword.newDocX(strsavepath +
strsavefile)

doc.add_paragraph(strurl)

header={

‘accept‘:‘text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8‘,

‘accept-encoding‘:‘gzip,
deflate, br‘,

‘accept-language‘:‘zh-CN,zh;q=0.9‘,

‘cache-control‘:‘max-age=0‘,

‘cookie‘:‘__gads=ID=40b6d57596e7429a:T=1538208840:S=ALNI_MbWvfR21-XDCnnRMC6w1ipz5pL1hw;
_ga=GA1.2.1676220267.1545396991;
UM_distinctid=16813a77ccd322-03ef758a8d4e-3c604504-144000-16813a77cce8fa;
CNZZDATA1256907=cnzz_eid%3D1198885933-1546517969-%26ntime%3D1546518138;
CNZZDATA1257640778=1118534197-1547552369-https%253A%252F%252Fwww.baidu.com%252F%7C1547607403;
_gid=GA1.2.1292942896.1547814253‘,

‘referer‘:‘https://www.baidu.com/link?url=qbb-FNVuosS5gMXV4E6kyu5UdwHX8ywZFIRl0iHiHm-yiTe8Lr5quxi7vcCXAS1yonIvrk58Sagt0tNVIsZDeK&wd=&eqid=c2293eaa0002eede000000055c42f402‘,

‘upgrade-insecure-requests‘:‘1‘,

‘user-agent‘:‘Mozilla/5.0
(Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132
Safari/537.36‘

}

r=requests.get(strurl,headers=header)

r.raise_for_status() #raise异常自动抛出,如果读取的Url服务器端返回400或500及后的错误,那么,则会抛出异常后,不再向后执行

r.encoding=‘utf-8‘

bs=BeautifulSoup(r.text,‘lxml‘)

htmldiv=bs.select(‘#cnblogs_post_body‘)[0]

#htmldiv=htmldiv.parent

#msgbox(str(type(htmldiv)))

for m,i in enumerate(list(htmldiv.find_all([‘p‘,‘div‘]))):

strcontent=i.get_text()

_mword.addPToDocx(doc,strcontent)

imgs=i.find_all(‘img‘)

for k,j in enumerate(list(imgs)):

strpicurl=j[‘src‘]

lsttemp=strpicurl.split(‘.‘)

strhouzui=‘.‘ +
lsttemp[-1]

strpicfilenm=strsavepath + ‘%d03‘ %m + ‘%d03‘ %k +
strhouzui

try:

_mrequests.downloadPicGhlhStream(strpicurl,header,strpicfilenm)

doc.add_picture(strpicfilenm)

except:

pass

doc.save(strsavepath + strsavefile)

#downloadpicfirst()

getapage(‘https://www.cnblogs.com/forever-snow/p/8506746.html‘,‘I:\\MAKEAPP\\python\\Python365\\边学习边测试文件夹\\自学PYTHON部分\\0082第八十二天同时将图片和文字爬取下来2\\docs\\‘,‘001.docx‘)

```

三、对昨天处理图片的方法进行了封装:

【_mrequest.py】

```

import
requests

from bs4 import
BeautifulSoup

import re

import
datetime

from
contextlib import closing

import _mty

import _mf

import _mbs4

import _mre

mrequestsErrString=‘‘ #供其它模块使用的全局变量了,实时保存了各函数执行时的错误信息

def msgbox(info,titletext=‘孤荷凌寒的requests模块对话框QQ578652607‘,style=0,isShowErrMsg=False):

return
_mty.msgboxGhlh(info,titletext,style,isShowErrMsg)

#使用content的写法,速度要慢得多

def downLoadPicGhlhContent(strpicurl,header,strsavefile,isShowMsg=False):

try:

r=requests.get(strpicurl,headers=header)

r.raise_for_status() #raise异常自动抛出,如果读取的Url服务器端返回400或500及后的错误,那么,则会抛出异常后,不再向后执行

#下一句指定了读取网页时要使用的编码格式

r.encoding=r.apparent_encoding #requests的返回结果对象里有个apparent_encoding函数, apparent_encoding通过调用chardet.detect()来识别文本编码. 但是需要注意的是,这有些消耗计算资源.

#r.encoding=‘utf-8‘

with open(strsavefile,‘wb‘) as f:

f.write(r.content) #content属性与text属性不同

#---------------------------------------------

except Exception as e:

mrequestsErrString=‘通过读取图片content方式写入本地下载图片时出错:‘ + str(e) + ‘\n此函数由【孤荷凌寒】创建,QQ578652607‘

if
isShowMsg==True:

msgbox(mrequestsErrString)

return None

else:

pass

finally:

pass

#使用流模式的写法,速度快得多

def downloadPicGhlhStream(strpicurl,header,strsavefile,isShowMsg=False):

try:

r=requests.get(strpicurl,headers=header,stream=True)

r.raise_for_status() #raise异常自动抛出,如果读取的Url服务器端返回400或500及后的错误,那么,则会抛出异常后,不再向后执行

#流模式不需要指定编码格式

#下一行用意在于,在写完流之后,自动关闭流

with
closing(requests.get(strpicurl,headers=header,stream=True)) as r:

with open(strsavefile,‘wb‘) as f:

#将流分成n个部分写入,每个部分分成128字节

for chunk in
r.iter_content(128):  #这一句vscode报错,但是假的报错

f.write(chunk)

except Exception as e:

mrequestsErrString=‘通过读取图片 数据流  方式写入本地下载图片时出错:‘ + str(e) + ‘\n此函数由【孤荷凌寒】创建,QQ578652607‘

if
isShowMsg==True:

msgbox(mrequestsErrString)

return None

else:

pass

finally:

pass

```

四、一些发现

html标签对象的children属性并不能返回所有子级对象,还得使用find_all方法才行。

最开始我使用:

htmldiv.children

没有成功,后来改为:

htmldiv.find_all([‘p‘,‘div‘])

——————————

今天整理的学习笔记完成,最后例行说明下我的自学思路:

根据过去多年我自学各种编程语言的经历,认为只有真正体验式,解决实际问题式的学习才会有真正的效果,即让学习实际发生。在2004年的时候我开始在一个乡村小学自学电脑 并学习vb6编程语言,没有学习同伴,也没有高师在上,甚至电脑都是孤岛(乡村那时还没有网络),有的只是一本旧书,在痛苦的自学摸索中,我找到适应自己零基础的学习方法:首先是每读书的一小节就作相应的手写笔记,第二步就是上机测试每一个笔记内容是否实现,其中会发现书中讲的其实有出入或错误,第三步就是在上机测试之后,将笔记改为电子版,形成最终的修订好的正确无误的学习笔记

通过反复尝试错误,在那个没有分享与交流的黑暗时期我摸黑学会了VB6,尔后接触了其它语言,也曾听过付费视频课程,结果发现也许自己学历果然太低,就算是零基础的入门课程,其实也难以跟上进度,讲师的教学多数出现对初学者的实际情况并不了解的情况,况且学习者的个体也存在差异呢?当然更可怕的是收费课程的价格往往是自己难以承受的。

于是我的所有编程学习都改为了自学,继续自己的三步学习笔记法的学习之路。

当然自学的最大问题是会走那么多的弯路,没有导师直接输入式的教学来得直接,好在网络给我们带来无限搜索的机会,大家在网络上的学习日志带给我们共享交流的机会,而QQ群等交流平台、网络社区的成立,我们可以一起自学,互相批评交流,也可以获得更有效,更自主的自学成果。

于是我以人生已过半的年龄,决定继续我的编程自学之路,开始学习python,只希望与大家共同交流,一个人的独行是可怕的,只有一群人的共同前进才是有希望的。

诚挚期待您的交流分享批评指点!欢迎联系我加入从零开始的自学联盟。

这个时代互联网成为了一种基础设施的存在,于是本来在孤独学习之路上的我们变得不再孤独,因为网络就是一个新的客厅,我们时刻都可以进行沙龙活动。

非常乐意能与大家一起交流自己自学心得和发现,更希望大家能够对我学习过程中的错误给予指点——是的,这样我就能有许多免费的高师了——这也是分享时代,社区时代带来的好福利,我相信大家会的,是吧!

根据完全共享的精神,开源互助的理念,我的个人自学录制过程是全部按4K高清视频录制的,从手写笔记到验证手写笔记的上机操作过程全程录制,但因为4K高清文件太大均超过5G以上,所以无法上传至网络,如有需要可联系我QQ578652607对传,乐意分享。上传分享到百度网盘的只是压缩后的720P的视频。

我的学习过程录像百度盘地址分享如下:(清晰度:1280x720)

链接:https://pan.baidu.com/s/1yC6d_VJ8dbSD1mwsRmCvcQ

提取码:1s5m

Bilibili:

https://www.bilibili.com/video/av41236139/

喜马拉雅语音笔记:

https://www.ximalaya.com/keji/19103006/156310726

原文地址:https://www.cnblogs.com/lhghroom/p/10332037.html

时间: 2024-07-28 12:41:39

孤荷凌寒自学python第八十二天学习爬取图片2的相关文章

孤荷凌寒自学python第六十二天学习mongoDB的基本操作并进行简单封装1

(完整学习过程屏幕记录视频地址在文末) 今天是学习mongoDB数据库的第八天. 今天开始学习mongoDB的简单操作,并对一些可能反复经常使用的操作进行简单的封装. 今天成功了解并实测完成了向mongoDB数据库中添加记录的操作,详细学习过程见屏幕录屏学习过程. 测试代码如下: [ceshi.py] ``` from pymongo import MongoClient import datetime import _mty import _mf import _mre import _cl

孤荷凌寒自学python第五十二天初次尝试使用python读取Firebase数据库中记录

(完整学习过程屏幕记录视频地址在文末) 今天继续研究Firebase数据库,利用google免费提供的这个数据库服务,今天主要尝试使用firebase_admin模块来连接firebase数据库. 获得成功. 一.简单总结下今天对firebase_admin模块对象的学习 (一)要通过firebase_admin模块连接到firebase数据库,那么必须要拥有一个从firebase网站上自己的数据库的[用户和权限]处设置的'连接私钥'等相关信息的一个json文件,并下载到项目文件夹中来. (二)

孤荷凌寒自学python第八十天开始写Python的第一个爬虫10

(完整学习过程屏幕记录视频地址在文末) 原计划今天应当可以解决读取所有页的目录并转而取出所有新闻的功能,不过由于学习时间不够,只是进一步优化了自定义函数的写法. 一.优化并新增了几个操作word文档的函数 ``` #!/usr/bin/env python3 # -*- coding: utf-8 -*- import string import time import random from docx.enum.style import WD_STYLE_TYPE #所有样式 (包括段落.文字

孤荷凌寒自学python第八十一天学习爬取图片1

(完整学习过程屏幕记录视频地址在文末) 通过前面十天的学习,我已经基本了解了通过requests模块来与网站服务器进行交互的方法,也知道了BeautifulSoup模块的基本用法. 但之前的学习主要还是获取网页上的文字内容为主,从今天起我开始尝试学习从网页上获取其中的图片并下载到本地. 一.首先加深了对requests模块的认识 找到了requests模块的官方文档: http://docs.python-requests.org/en/latest/user/quickstart/ 是全英文的

孤荷凌寒自学python第八十三天初次接触ocr配置tesseract环境

(完整学习过程屏幕记录视频地址在文末) 学习Python我肯定不会错过图片文字的识别,当然更重要的是简单的验证码识别了,今天花的所有时间都用于寻找最偷懒的方式来解决这一经典问题. 结果发现,还是大名鼎鼎的[tesseract]是最受欢迎的,于是就着手配置tesseract的相关环境. 今天的主要操作都是在windows10的64位系统下进行的. 一.第一步,安装tesseract-ocr在windows64位下的版本 我把这理解为环境配置. 首先在github的tesseract的安装指引页面去

孤荷凌寒自学python第六十八天学习并实践beautifulsoup模块1

(完整学习过程屏幕记录视频地址在文末) 感觉用requests获取到网页的html源代码后,更重要的工作其实是分析得到的内容,因此这时候大名鼎鼎的BeautifulSoup模块就可以大展身手了. 一.今天已了解到的BeautifulSoup模块中的一些用法小结: 1. BeautifulSoup对象.prettify()  #对html源代码 进行了美化. 2. BeautifulSoup.p #这种方法将返回html文档中的第一个p标签本身这个对象,不是文本,但Print之后会显示为如: <p

孤荷凌寒自学python第八十六天对selenium模块进行较详细的了解

(今天由于文中所阐述的原因没有进行屏幕录屏,见谅) 为了能够使用selenium模块进行真正的操作,今天主要大范围搜索资料进行对selenium模块的学习,并且借2019年的新年好运居然在今天就来了,还在学习Python的过程中就接到一个任务,完成了第一个真正有实用价值的作品,大大增强了信心,也对Python爬取内容,操纵网页的能力有了真切的体会. 一.首先真诚感谢以下文章作者的无私分享: 查找到html页面标签对象方法的参考 https://www.cnblogs.com/zhuque/p/8

孤荷凌寒自学python第八十四天搭建jTessBoxEditor来训练tesseract模块

(完整学习过程屏幕记录视频地址在文末) 由于本身tesseract模块针对普通的验证码图片的识别率并不高,据说需要进行专门针对具体某一型号的验证码图片的训练才可以,因此今天的学习重点是搭建jTessBoxEditor环境来进行tesseract训练数据的训练和生成. 是完全参照以下博客内容来进行的: https://www.cnblogs.com/zhongtang/p/5555950.html 具体操作过程见文末的操作过程屏幕录像. 在整个训练过程中我的主要感受是: 都说tesseract是基

孤荷凌寒自学python第六十六天学习mongoDB的基本操作并进行简单封装5

孤荷凌寒自学python第六十六天学习mongoDB的基本操作并进行简单封装5并学习权限设置 (完整学习过程屏幕记录视频地址在文末) 今天是学习mongoDB数据库的第十二天. 今天继续学习mongoDB的简单操作,并继续对一些可能反复经常使用的操作进行简单的封装.同时通过搜索了解了如何对本地Mongo数据库进行权限设置(没有实践本地数据库的用户权限设置.) 按个人规划,今天是初步了解学习MongoDb数据库的最后一个学习日,后续将在真正使用此数据库时,再对其进行深入研究. 一.今天完成了两个可