Python爬虫之BeautifulSoup模块

模块安装

pip3 install beautifulsoup4

模块导入

from bs4 import BeautifulSoup

示例html内容

获取html内容代码

import requests

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36 115Browser/9.0.0"
}
response = requests.get("https://www.xbiquge6.com/xbqgph.html",headers=headers)
response.encoding = "utf-8"
html = response.text
print(html)

获取的html内容

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<script type="text/javascript" src="/js/m.js"></script>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8" />
<title>经典小说排行榜-新笔趣阁</title>
<meta name="keywords" content="新笔趣阁,小说排行榜" />
<meta name="description" content="新笔趣阁是广大书友最值得收藏的小说排行榜阅读网,网站收录了当前最火热的小说排行榜,免费提供高质量的小说最新章节,是广大网络小说爱好者必备的小说阅读网。" />
<meta http-equiv="Cache-Control" content="no-siteapp" />
<meta http-equiv="Cache-Control" content="no-transform" />
<link rel="stylesheet" href="/css/xbqg.css" />
<script type="text/javascript" src="http://libs.baidu.com/jquery/1.4.2/jquery.min.js"></script>
<script type="text/javascript" src="/js/xbqg.js"></script>
</head>
<body>
<div id="wrapper">
    <script>login();</script>
    <div class="header">
        <div class="header_logo">
            <a href="/">新笔趣阁</a>
        </div>
        <script>panel();</script>
    </div>
    <div class="clear"></div>
    <div class="nav">
        <ul>
            <li><a href="/">首页</a></li>
            <li><a href="/evercase.html">永久书架</a></li>
            <li><a href="/xclass/1/1.html">玄幻奇幻</a></li>
            <li><a href="/xclass/2/1.html">武侠仙侠</a></li>
            <li><a href="/xclass/3/1.html">都市言情</a></li>
            <li><a href="/xclass/4/1.html">历史军事</a></li>
            <li><a href="/xclass/5/1.html">科幻灵异</a></li>
            <li><a href="/xclass/6/1.html">网游竞技</a></li>
            <li><a href="/xclass/7/1.html">女频频道</a></li>
            <li><a href="/quanben/">完本小说</a></li>
            <li><a href="/xbqgph.html">排行榜单</a></li>
            <li><a href="/xbqgcase.html">临时书架</a></li>
        </ul>
    </div>
    <div id="main">
        <div class="novelslist2">
        <h2>小说排行榜列表</h2>
        <ul>
            <li><span class="s1"><b>作品分类</b></span><span class="s2"><b>作品名称</b></span><span class="s3"><b>最新章节</b></span><span class="s4"><b>作者</b></span><span class="s5"><b>更新时间</b></span><span class="s6"><b>状态</b></span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/78_78760/" target="_blank">我本港岛电影人</a></span><span class="s3"><a href="/78_78760/1203299.html" target="_blank">今天有更</a></span><span class="s4">再来一盘菇凉</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/1/1.html">玄幻奇幻</a>]</span><span class="s2"><a href="/90_90002/" target="_blank">艾泽拉斯新秩序</a></span><span class="s3"><a href="/90_90002/350275.html" target="_blank">第一百三十六章 卡拉赞的收获</a></span><span class="s4">想静静的顿河</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/90_90842/" target="_blank">超级狂婿</a></span><span class="s3"><a href="/90_90842/350271.html" target="_blank">第654章:他不够格</a></span><span class="s4">我本幸运</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/90_90305/" target="_blank">我在都市修个仙</a></span><span class="s3"><a href="/90_90305/339101.html" target="_blank">完本感言</a></span><span class="s4">一剑荡清风</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/75_75283/" target="_blank">都市超级医圣</a></span><span class="s3"><a href="/75_75283/4165727.html" target="_blank">第2613章 战后处理</a></span><span class="s4">断桥残雪</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/90_90235/" target="_blank">祖传土豪系统</a></span><span class="s3"><a href="/90_90235/350262.html" target="_blank">第二百零五章 我能试试吗</a></span><span class="s4">第九倾城</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/83_83534/" target="_blank">都市红粉图鉴</a></span><span class="s3"><a href="/83_83534/838632.html" target="_blank">第1510章 我,才是坐馆龙头!</a></span><span class="s4">秋江独钓</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/2/1.html">武侠仙侠</a>]</span><span class="s2"><a href="/89_89635/" target="_blank">胜天传奇</a></span><span class="s3"><a href="/89_89635/998995.html" target="_blank">第三百八十章 游历天宫</a></span><span class="s4">骑牛者</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/88_88085/" target="_blank">总裁爸比从天降</a></span><span class="s3"><a href="/88_88085/998993.html" target="_blank">第1748章 奈何自己是婆婆</a></span><span class="s4">一碟茴香豆</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

            <li><span class="s1">[<a href="/xclass/1/1.html">玄幻奇幻</a>]</span><span class="s2"><a href="/89_89996/" target="_blank">太古魔帝</a></span><span class="s3"><a href="/89_89996/998988.html" target="_blank">第一千三百二十四章 魂帝</a></span><span class="s4">草根</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

        </ul>
        </div>
        <div class="clear"></div>
    </div>
</div>
<div class="footer">
    <div class="footer_cont"><script>footer();dl();</script></div>
</div>
</body>
</html>

构建BeautifulSoup对象

常用四种解释器
| 解释器 | 标识 | 特点|
|--|--|--|
| Python标准库 | html.parser | Python内置,执行速度中 |
| lxml的HTML解释器 | lxml | 速度快 |
| lxml的XML解释器 | xml | 唯一支持XML解析 |
| html5lib | html5lib | 容错性最好,以浏览器方式解析 |

soup = BeautifulSoup(html, 'html.parser')

还可以解析本地html文件

soup1 = BeautifulSoup(open('index.html'))

.prettify()格式化输出节点

通过 . 获取节点

title = soup.head.title
print(type(title))
print(title)

结果是
<class 'bs4.element.Tag'>
<title>经典小说排行榜-新笔趣阁</title>

对于名称唯一的节点,可以省略层级

title = soup.title
print(type(title))
print(title)

结果同样是
<class 'bs4.element.Tag'>
<title>经典小说排行榜-新笔趣阁</title>

名称不唯一的节点,直接获取只会获取第一个匹配的节点

li = soup.li
print(li)

结果是
<li><a href="/">首页</a></li>

find_all根据条件获取节点

find_all( name , attrs , recursive , text , **kwargs )
name :查找所有名字为 name 的tag,字符串对象会被自动忽略掉;
attrs:根据属性查询,使用字典类型;
text :可以搜搜文档中的字符串内容.与 name 参数的可选值一样, text 参数接受 字符串 , 正则表达式 , 列表, True ;
recursive:调用tag的 find_all() 方法时,Beautiful Soup会检索当前tag的所有子孙节点,如果只想搜索tag的直接子节点,可以使用参数 recursive=False ;
limit:find_all() 方法返回全部的搜索结构,如果文档树很大那么搜索会很慢.如果我们不需要全部结果,可以使用 limit 参数限制返回结果的数量.效果与SQL中的limit关键字类似,当搜索到的结果数量达到 limit 的限制时,就停止搜索返回结果;
class_ :通过 class_ 参数搜索有指定CSS类名的tag,class_ 参数同样接受不同类型的 过滤器 ,字符串,正则表达式,方法或 True。

根据标签名字

lis = soup.find_all(name="li")
for item in lis:
    print(item)

结果是
<li><a href="/">首页</a></li>
<li><a href="/evercase.html">永久书架</a></li>
<li><a href="/xclass/1/1.html">玄幻奇幻</a></li>
<li><a href="/xclass/2/1.html">武侠仙侠</a></li>
<li><a href="/xclass/3/1.html">都市言情</a></li>
<li><a href="/xclass/4/1.html">历史军事</a></li>
<li><a href="/xclass/5/1.html">科幻灵异</a></li>
<li><a href="/xclass/6/1.html">网游竞技</a></li>
<li><a href="/xclass/7/1.html">女频频道</a></li>
<li><a href="/quanben/">完本小说</a></li>
<li><a href="/xbqgph.html">排行榜单</a></li>
<li><a href="/xbqgcase.html">临时书架</a></li>
<li><span class="s1"><b>作品分类</b></span><span class="s2"><b>作品名称</b></span><span class="s3"><b>最新章节</b></span><span class="s4"><b>作者</b></span><span class="s5"><b>更新时间</b></span><span class="s6"><b>状态</b></span></li>
<li><span class="s1">[<a href="/xclass/3/1.html">都市言情</a>]</span><span class="s2"><a href="/90_90590/" target="_blank">我能举报万物</a></span><span class="s3"><a href="/90_90590/361969.html" target="_blank">第九十六章 巡抚视察【第三更】</a></span><span class="s4">必火</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/5/1.html">科幻灵异</a>]</span><span class="s2"><a href="/81_81279/" target="_blank">女战神的黑包群</a></span><span class="s3"><a href="/81_81279/1140238.html" target="_blank">第3046章 恶毒女配,在线提刀45</a></span><span class="s4">二谦</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/1/1.html">玄幻奇幻</a>]</span><span class="s2"><a href="/89_89699/" target="_blank">花岗岩之怒</a></span><span class="s3"><a href="/89_89699/999707.html" target="_blank">第一百五十二章 意外到来的断剑</a></span><span class="s4">咱的小刀</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/6/1.html">网游竞技</a>]</span><span class="s2"><a href="/77_77363/" target="_blank">超神机械师</a></span><span class="s3"><a href="/77_77363/1338182.html" target="_blank">1090 韭菜的自觉</a></span><span class="s4">齐佩甲</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/2/1.html">武侠仙侠</a>]</span><span class="s2"><a href="/59_59644/" target="_blank">无量真途</a></span><span class="s3"><a href="/59_59644/3199234.html" target="_blank">第六百三十二章 突然出现的神智</a></span><span class="s4">燕十千</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/5/1.html">科幻灵异</a>]</span><span class="s2"><a href="/88_88061/" target="_blank">我的细胞监狱</a></span><span class="s3"><a href="/88_88061/999706.html" target="_blank">第四百五十九章 白雾</a></span><span class="s4">穿黄衣的阿肥</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/2/1.html">武侠仙侠</a>]</span><span class="s2"><a href="/88_88375/" target="_blank">前任无双</a></span><span class="s3"><a href="/88_88375/999705.html" target="_blank">第三百章 事急速办</a></span><span class="s4">跃千愁</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/2/1.html">武侠仙侠</a>]</span><span class="s2"><a href="/90_90719/" target="_blank">元阳道君</a></span><span class="s3"><a href="/90_90719/361968.html" target="_blank">第四十章 洞开</a></span><span class="s4">剑扼虚空</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/4/1.html">历史军事</a>]</span><span class="s2"><a href="/88_88151/" target="_blank">逆成长巨星</a></span><span class="s3"><a href="/88_88151/999704.html" target="_blank">655:不是办法的办法</a></span><span class="s4">葛洛夫街兄弟</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>
<li><span class="s1">[<a href="/xclass/4/1.html">历史军事</a>]</span><span class="s2"><a href="/89_89303/" target="_blank">承包大明</a></span><span class="s3"><a href="/89_89303/999703.html" target="_blank">第一百九十三章 真会玩</a></span><span class="s4">南希北庆</span><span class="s5">2019-11-16</span><span class="s6">连载中</span></li>

根据标签属性

属性和值以字典形式传入

lis = soup.find_all(attrs={"class":"s2"})
for item in lis:
    print(item)

结果是
<span class="s2"><b>作品名称</b></span>
<span class="s2"><a href="/90_90590/" target="_blank">我能举报万物</a></span>
<span class="s2"><a href="/81_81279/" target="_blank">女战神的黑包群</a></span>
<span class="s2"><a href="/89_89699/" target="_blank">花岗岩之怒</a></span>
<span class="s2"><a href="/77_77363/" target="_blank">超神机械师</a></span>
<span class="s2"><a href="/59_59644/" target="_blank">无量真途</a></span>
<span class="s2"><a href="/88_88061/" target="_blank">我的细胞监狱</a></span>
<span class="s2"><a href="/88_88375/" target="_blank">前任无双</a></span>
<span class="s2"><a href="/90_90719/" target="_blank">元阳道君</a></span>
<span class="s2"><a href="/88_88151/" target="_blank">逆成长巨星</a></span>
<span class="s2"><a href="/89_89303/" target="_blank">承包大明</a></span>

限制搜索范围

find_all 方法会搜索当前标签的所有子孙节点,如果只想搜索直接子节点,可以使用参数 recursive=False

遍历获取子节点

.contents获取所有子节点

以列表形式返回所有子节点,要注意,列表里面还会掺杂 ‘\n‘

ul = soup.ul
print(ul)
print(ul.contents)

结果是
<ul>
<li><a href="/">首页</a></li>
<li><a href="/evercase.html">永久书架</a></li>
<li><a href="/xclass/1/1.html">玄幻奇幻</a></li>
<li><a href="/xclass/2/1.html">武侠仙侠</a></li>
<li><a href="/xclass/3/1.html">都市言情</a></li>
<li><a href="/xclass/4/1.html">历史军事</a></li>
<li><a href="/xclass/5/1.html">科幻灵异</a></li>
<li><a href="/xclass/6/1.html">网游竞技</a></li>
<li><a href="/xclass/7/1.html">女频频道</a></li>
<li><a href="/quanben/">完本小说</a></li>
<li><a href="/xbqgph.html">排行榜单</a></li>
<li><a href="/xbqgcase.html">临时书架</a></li>
</ul>
['\n', <li><a href="/">首页</a></li>, '\n', <li><a href="/evercase.html">永久书架</a></li>, '\n', <li><a href="/xclass/1/1.html">玄幻奇幻</a></li>, '\n', <li><a href="/xclass/2/1.html">武侠仙侠</a></li>, '\n', <li><a href="/xclass/3/1.html">都市言情</a></li>, '\n', <li><a href="/xclass/4/1.html">历史军事</a></li>, '\n', <li><a href="/xclass/5/1.html">科幻灵异</a></li>, '\n', <li><a href="/xclass/6/1.html">网游竞技</a></li>, '\n', <li><a href="/xclass/7/1.html">女频频道</a></li>, '\n', <li><a href="/quanben/">完本小说</a></li>, '\n', <li><a href="/xbqgph.html">排行榜单</a></li>, '\n', <li><a href="/xbqgcase.html">临时书架</a></li>, '\n']

.children获取所有子节点

返回一个list生成器对象

ul = soup.ul
print(ul.children)
print(list(ul.children))

结果是
['\n', <li><a href="/">首页</a></li>, '\n', <li><a href="/evercase.html">永久书架</a></li>, '\n', <li><a href="/xclass/1/1.html">玄幻奇幻</a></li>, '\n', <li><a href="/xclass/2/1.html">武侠仙侠</a></li>, '\n', <li><a href="/xclass/3/1.html">都市言情</a></li>, '\n', <li><a href="/xclass/4/1.html">历史军事</a></li>, '\n', <li><a href="/xclass/5/1.html">科幻灵异</a></li>, '\n', <li><a href="/xclass/6/1.html">网游竞技</a></li>, '\n', <li><a href="/xclass/7/1.html">女频频道</a></li>, '\n', <li><a href="/quanben/">完本小说</a></li>, '\n', <li><a href="/xbqgph.html">排行榜单</a></li>, '\n', <li><a href="/xbqgcase.html">临时书架</a></li>, '\n']

.descendants遍历所有子孙节点

ul = soup.ul
for item in ul.descendants:
    print(item)

结果是(中间很多'\n'空行我删掉了)
<li><a href="/">首页</a></li>
<a href="/">首页</a>
首页
<li><a href="/evercase.html">永久书架</a></li>
<a href="/evercase.html">永久书架</a>
永久书架
<li><a href="/xclass/1/1.html">玄幻奇幻</a></li>
<a href="/xclass/1/1.html">玄幻奇幻</a>
玄幻奇幻
<li><a href="/xclass/2/1.html">武侠仙侠</a></li>
<a href="/xclass/2/1.html">武侠仙侠</a>
武侠仙侠
<li><a href="/xclass/3/1.html">都市言情</a></li>
<a href="/xclass/3/1.html">都市言情</a>
都市言情
<li><a href="/xclass/4/1.html">历史军事</a></li>
<a href="/xclass/4/1.html">历史军事</a>
历史军事
<li><a href="/xclass/5/1.html">科幻灵异</a></li>
<a href="/xclass/5/1.html">科幻灵异</a>
科幻灵异
<li><a href="/xclass/6/1.html">网游竞技</a></li>
<a href="/xclass/6/1.html">网游竞技</a>
网游竞技
<li><a href="/xclass/7/1.html">女频频道</a></li>
<a href="/xclass/7/1.html">女频频道</a>
女频频道
<li><a href="/quanben/">完本小说</a></li>
<a href="/quanben/">完本小说</a>
完本小说
<li><a href="/xbqgph.html">排行榜单</a></li>
<a href="/xbqgph.html">排行榜单</a>
排行榜单
<li><a href="/xbqgcase.html">临时书架</a></li>
<a href="/xbqgcase.html">临时书架</a>
临时书架

获取其父节点

a = soup.li.a
print(a)
p = a.parent
print(p)

结果是
<a href="/">首页</a>
<li><a href="/">首页</a></li>

提取节点信息

节点名称

感觉没什么用

title = soup.title
print(title.name)

结果是
title

节点属性

a = soup.li.a
print(a)
print(a.attrs)  # 获取所有属性,返回字典形式
print(a['href'])# 获取a节点的href属性值

结果是
<a href="/">首页</a>
{'href': '/'}
/

节点文本

a = soup.li.a
print(type(a.string)) # 节点内文本的类型
print(a.string) # 获取节点内的文本内容
print(a.get_text()) # 也是获取节点内的文本内容
结果是
<class 'bs4.element.NavigableString'>
首页

注意!!!如果节点内文本是注释,则用string取出文本时会自动去除注释标记
注释的类型:<class ‘bs4.element.Comment‘>,可以通过类型判断

遍历获取所有子孙节点中的文本

for string in soup.stripped_strings:  # 去除多余空白内容
    print(repr(string))

想进一步了解编程开发相关知识,与我一同成长进步,请关注我的公众号“松果仓库”,共同分享宅&程序员的各类资源,谢谢!!!

原文地址:https://www.cnblogs.com/songshudadi/p/11888594.html

时间: 2024-10-11 12:29:42

Python爬虫之BeautifulSoup模块的相关文章

Python爬虫之Beautifulsoup模块的使用

一 Beautifulsoup模块介绍 Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间.你可能在寻找 Beautiful Soup3 的文档,Beautiful Soup 3 目前已经停止开发,官网推荐在现在的项目中使用Beautiful Soup 4, 移植到BS4 #安装 Beautiful Soup pip instal

Python 爬虫—— requests BeautifulSoup

本文记录下用来爬虫主要使用的两个库.第一个是requests,用这个库能很方便的下载网页,不用标准库里面各种urllib:第二个BeautifulSoup用来解析网页,不然自己用正则的话很烦. requests使用,1直接使用库内提供的get.post等函数,在比简单的情况下使用,2利用session,session能保存cookiees信息,方便的自定义request header,可以进行登陆操作. BeautifulSoup使用,先将requests得到的html生成BeautifulSo

Python爬虫教程-09-error 模块

Python爬虫教程-09-error模块 今天的主角是error,爬取的时候,很容易出现错,所以我们要在代码里做一些,常见错误的处,关于urllib.error URLError URLError 产生的原因: 1.无网络连接 2.服务器连接失败 3.找不到指定的服务器 4.URLError是OSError的子类 案例v9文件:https://xpwi.github.io/py/py%E7%88%AC%E8%99%AB/py09error.py # 案例v9 # URLError的使用 fro

python爬虫之requests模块

一. 登录事例 a. 查找汽车之家新闻 标题 链接 图片写入本地 import requests from bs4 import BeautifulSoup import uuid response = requests.get( 'http://www.autohome.com.cn/news/' ) response.encoding = 'gbk' soup = BeautifulSoup(response.text,'html.parser') # HTML会转换成对象 tag = so

Python爬虫之urllib模块1

本文来自网友投稿.作者PG,一个待毕业待就业二流大学生.玄魂工作室未对该文章内容做任何改变. 因为本人一直对推理悬疑比较感兴趣,所以这次爬取的网站也是平时看一些悬疑故事的网站,同时也是因为这个网站在编码上面和一些大网站的博客不同,并不那么规范,所以对于初学者还是有一定的挑战性的.我打算把这个爬虫分三次讲,所以每次都先完成一个小目标(当然不是一个亿啦),这次课我们先爬取当前页面的并且下载第一篇文章.第二次课我们就将爬取当前页面的=所有的链接进行下载,第三次课我们将把整个板块的文章都下载下来. 演示

python 爬虫proxy,BeautifulSoup+requests+mysql 爬取样例

实现思路: 由于反扒机制,所以需要做代理切换,去爬取,内容通过BeautifulSoup去解析,最后入mysql库 1.在西刺免费代理网获取代理ip,并自我检测是否可用 2.根据获取的可用代理ip去发送requests模块的请求,带上代理 3.内容入库 注:日志模块在上一篇随笔 下面附上代码 1.可用代理获取 # -*- coding: utf-8 -*- import random import time import requests from bs4 import BeautifulSou

Python爬虫进阶——urllib模块使用案例【淘宝】

很多时候呢,我们都是读取本地HTML文件来进行爬虫练手,但每次都要手打不同的HTML明显耗时耗力: 还有些小伙伴不喜欢F12,偏偏喜欢在Pycharm中查看HTML的源代码: -- 难道每次都只能"复制--新建--粘贴--保存"一条龙服务吗? 不不不,我们还有Python的第三方库--urllib. urllib模块是模拟浏览器去访问URL地址,然后拿到服务器响应回来的数据,也就是整个HTML文件. 代码如下: import urllib.request as ur # urlopen

python爬虫之BeautifulSoup

Beautiful Soup,字面意思是美好的汤,是一个用于解析HTML文件的Python库 windows下载和安装 在Windows下面如何安装Beautiful Soup: 1.到http://www.crummy.com/software/BeautifulSoup/网站上上下载 2.下载完成之后需要解压缩,假设放到D:/python下. 3.运行cmd,切换到D:/python/beautifulsoup4-4.1.3/目录下(根据自己解压缩后的目录和下载的版本号修改), cd /d

python 爬虫 requests+BeautifulSoup 爬取巨潮资讯公司概况代码实例

第一次写一个算是比较完整的爬虫,自我感觉极差啊,代码low,效率差,也没有保存到本地文件或者数据库,强行使用了一波多线程导致数据顺序发生了变化... 贴在这里,引以为戒吧. # -*- coding: utf-8 -*- """ Created on Wed Jul 18 21:41:34 2018 @author: brave-man blog: http://www.cnblogs.com/zrmw/ """ import requests