Python爬虫——抓取贴吧帖子

抓取百度贴吧帖子

按照这个学习教程,一步一步写出来,中间遇到很多的问题,一一列举

首先, 获得 标题 和 贴子总数

# -*- coding:utf-8 -*-
#!/user/bin/python

import urllib
import urllib2
import re

class BDTB:
    #初始化,传入基地址,是否只看楼主的参数
    def __init__(self, baseUrl, seeLZ):
        self.baseURL = baseUrl
        self.seeLZ = ‘?see_lz=‘ + str(seeLZ)

    #传入页码,获取该页帖子的代码
    def getPage(self, pageNum):
        try:
            url = self.baseURL + self.seeLZ + ‘&pn=‘ + str(pageNum)
            request = urllib2.Request(url)
            response = urllib2.urlopen(request)
            return response.read()
        except urllib2.URLError, e:
            if hasattr(e, "reason"):
                print u"连接百度贴吧失败,错误原因", e.reason
                return None

    def getTitle(self):
        page = self.getPage(1)
        pattern = re.compile(‘<h3 class="core_title_txt.*?>(.*?)</h3>‘, re.S)
        result = re.search(pattern, page)
        if result:
            print result.group(1)
            return result.group(1).strip()
        else:
            return None

    #得到帖子页数
    def getPageNum(self):
        page = self.getPage(1)
        pattern = re.compile(‘<li class="l_reply_num.*?<span.*?>(.*?)</span‘,re.S)
        result = re.search(pattern, page)
        if result:
            print "回复个数:"
            print result.group(1)
            return result.group(1).strip()
        else:
            return None

baseURL = ‘http://tieba.baidu.com/p/3138733512‘
bdtb = BDTB(baseURL, 1)
bdtb.getTitle()
bdtb.getPageNum()

PS:我用的火狐浏览器,查看网页源代码,鼠标右击查看 获得 快捷键 Ctrl-U

接下来 抓取 楼层的内容,写好的 程序如下

import urllib
import urllib2
import re

class BDTB:
    #初始化,传入基地址,是否只看楼主的参数
    def __init__(self, baseUrl, seeLZ):
        self.baseURL = baseUrl
        self.seeLZ = ‘?see_lz=‘ + str(seeLZ)

    #传入页码,获取该页帖子的代码
    def getPage(self, pageNum):
        try:
            url = self.baseURL + self.seeLZ + ‘&pn=‘ + str(pageNum)
            request = urllib2.Request(url)
            response = urllib2.urlopen(request)
            return response.read()
        except urllib2.URLError, e:
            if hasattr(e, "reason"):
                print u"连接百度贴吧失败,错误原因", e.reason
                return None

    def getTitle(self):
        page = self.getPage(1)
        pattern = re.compile(‘<h3 class="core_title_txt.*?>(.*?)</h3>‘, re.S)
        result = re.search(pattern, page)
        if result:
            print result.group(1)
            return result.group(1).strip()
        else:
            return None

    #得到帖子页数
    def getPageNum(self):
        page = self.getPage(1)
        pattern = re.compile(‘<li class="l_reply_num.*?<span.*?>(.*?)</span‘,re.S)
        result = re.search(pattern, page)
        if result:
            print "回复个数:"
            print result.group(1)
            return result.group(1).strip()
        else:
            return None

    def getContent(self,page):
        pattern = re.compile(‘<div id="post_content_.*? class="d_post_content j_d_post_content ">(.*?)</div>‘,re.S)
        items = re.findall(pattern,page)
        for item in items:
            print item

baseURL = ‘http://tieba.baidu.com/p/3138733512‘
bdtb = BDTB(baseURL, 1)
bdtb.getTitle()
bdtb.getPageNum()
bdtb.getContent(1)

但是运行之后一直报错,如下图:

检查代码无数次后,终于.....发现 getContent中 没有获取页码 T_T  在这个函数首句加上

page = self.getPage(1)  

即可!!!

终于得到了内容部分,用一下工具类 可将乱七八糟的图片什么的代码去掉

#处理页面标签类
class Tool:
    #去除img标签,7位长空格
    removeImg = re.compile(‘<img.*?>| {7}|‘)
    #删除超链接标签
    removeAddr = re.compile(‘<a.*?>|</a>‘)
    #把换行的标签换为\n
    replaceLine = re.compile(‘<tr>|<div>|</div>|</p>‘)
    #将表格制表<td>替换为\t
    replaceTD= re.compile(‘<td>‘)
    #把段落开头换为\n加空两格
    replacePara = re.compile(‘<p.*?>‘)
    #将换行符或双换行符替换为\n
    replaceBR = re.compile(‘<br><br>|<br>‘)
    #将其余标签剔除
    removeExtraTag = re.compile(‘<.*?>‘)
    def replace(self,x):
        x = re.sub(self.removeImg,"",x)
        x = re.sub(self.removeAddr,"",x)
        x = re.sub(self.replaceLine,"\n",x)
        x = re.sub(self.replaceTD,"\t",x)
        x = re.sub(self.replacePara,"\n    ",x)
        x = re.sub(self.replaceBR,"\n",x)
        x = re.sub(self.removeExtraTag,"",x)
        #strip()将前后多余内容删除
        return x.strip()

最后最后,就是这样的了..

# -*- coding:utf-8 -*-
#!/user/bin/python

import urllib
import urllib2
import re

#处理页面标签类
class Tool:
    #去除img标签,7位长空格
    removeImg = re.compile(‘<img.*?>| {7}|‘)
    #删除超链接标签
    removeAddr = re.compile(‘<a.*?>|</a>‘)
    #把换行的标签换为\n
    replaceLine = re.compile(‘<tr>|<div>|</div>|</p>‘)
    #将表格制表<td>替换为\t
    replaceTD= re.compile(‘<td>‘)
    #把段落开头换为\n加空两格
    replacePara = re.compile(‘<p.*?>‘)
    #将换行符或双换行符替换为\n
    replaceBR = re.compile(‘<br><br>|<br>‘)
    #将其余标签剔除
    removeExtraTag = re.compile(‘<.*?>‘)
    def replace(self,x):
        x = re.sub(self.removeImg,"",x)
        x = re.sub(self.removeAddr,"",x)
        x = re.sub(self.replaceLine,"\n",x)
        x = re.sub(self.replaceTD,"\t",x)
        x = re.sub(self.replacePara,"\n    ",x)
        x = re.sub(self.replaceBR,"\n",x)
        x = re.sub(self.removeExtraTag,"",x)
        #strip()将前后多余内容删除
        return x.strip()

class BDTB:
    #初始化,传入基地址,是否只看楼主的参数
    def __init__(self, baseUrl, seeLZ, floorTag):
        self.baseURL = baseUrl
        self.seeLZ = ‘?see_lz=‘ + str(seeLZ)
        self.tool = Tool()
        #全局file变量,文件写入操作对象
        self.file = None
        #楼层标号, 初始化为1
        self.floor = 1
        #默认标题
        self.defaultTitle = u"百度某某贴吧"
        #是否写入楼层分隔符标记
        self.floorTag = floorTag

    #传入页码,获取该页帖子的代码
    def getPage(self, pageNum):
        try:
            url = self.baseURL + self.seeLZ + ‘&pn=‘ + str(pageNum)
            request = urllib2.Request(url)
            response = urllib2.urlopen(request)
            return response.read().decode(‘utf-8‘)
        except urllib2.URLError, e:
            if hasattr(e, "reason"):
                print u"连接百度贴吧失败,错误原因", e.reason
                return None

    #获得帖子标题
    def getTitle(self,page):
        page = self.getPage(1)
        pattern = re.compile(‘<h3 class="core_title_txt.*?>(.*?)</h3>‘, re.S)
        result = re.search(pattern, page)
        if result:
            #print result.group(1)
            return result.group(1).strip()
        else:
            return None

    #得到帖子页数
    def getPageNum(self,page):
        page = self.getPage(1)
        pattern = re.compile(‘<li class="l_reply_num.*?<span.*?>(.*?)</span‘,re.S)
        result = re.search(pattern, page)
        if result:
            #print "回复个数:"
            #print result.group(1)
            return result.group(1).strip()
        else:
            return None

    #获得帖子的内容
    def getContent(self,page):
        page = self.getPage(1)
        pattern = re.compile(‘<div id="post_content_.*?>(.*?)</div>‘,re.S)
        items = re.findall(pattern,page)
        contents = []
        floor = 1
        for item in items:
            content = "\n" + self.tool.replace(item) + "\n"
            contents.append(content.encode(‘utf-8‘))
            #print self.tool.replace(item)
            #floor += 1
        return contents

    def setFileTitle(self,title):
        if title is not None:
            self.file = open(title + ".txt", "w+")
        else:
            self.file = open(self.defaultTitle + ".txt", "w+")

    def writeData(self,contents):
        for item in contents:
            if self.floorTag == ‘1‘:
                floorline = "\n" + str(self.floor) + u"-------------------------------------\n"
                self.file.write(floorline)
            self.file.write(item)
            self.floor += 1

    def start(self):
        indexPage = self.getPage(1)
        pageNum = self.getPageNum(indexPage)
        title = self.getTitle(indexPage)
        self.setFileTitle(title)
        if pageNum == None:
            print "URL已失效,请重试"
            return
        try:
            print "该帖子共有" + str(pageNum) + "页"
            for i in range(1,int(pageNum) + 1):
                print "正在写入第" + str(i) + "页数据"
                page = self.getPage(i)
                contents = self.getContent(page)
                self.writeData(contents)
        except IOError,e:
            print "写入异常,原因" + e.message
        finally:
            print "Succeed~"

print u"请输入帖子代码"
baseURL = ‘http://tieba.baidu.com/p/‘ + str(raw_input(u‘http://tieba.baidu.com/p/‘))
seeLZ = raw_input("是否只看楼主,是输入1,否输入0\\n")
floorTag = raw_input("是否写入楼层信息,是输入1,否输入0\\n")
bdtb = BDTB(baseURL, seeLZ,floorTag)
bdtb.start()
关于decode和encode知识,查看 这个关于raw_input, 查看 这个
时间: 2024-10-22 06:50:21

Python爬虫——抓取贴吧帖子的相关文章

python 爬虫抓取心得

quanwei9958 转自 python 爬虫抓取心得分享 urllib.quote('要编码的字符串') 如果你要在url请求里面放入中文,对相应的中文进行编码的话,可以用: urllib.quote('要编码的字符串') query = urllib.quote(singername) url = 'http://music.baidu.com/search?key='+query response = urllib.urlopen(url) text = response.read()

Python爬虫抓取网页图片

本文通过python 来实现这样一个简单的爬虫功能,把我们想要的图片爬取到本地. 下面就看看如何使用python来实现这样一个功能. # -*- coding: utf-8 -*- import urllib import re import time import os #显示下载进度 def schedule(a,b,c): ''''' a:已经下载的数据块 b:数据块的大小 c:远程文件的大小 ''' per = 100.0 * a * b / c if per > 100 : per =

python爬虫抓取站长之家IP库,仅供练习用!

python爬虫抓取站长之家IP库,单线程的,仅供练习,IP库数据有43亿条,如果按此种方法抓取至少得数年,所以谨以此作为练手,新手代码很糙,请大家见谅. #!/usr/bin/python #coding=UTF-8 import urllib2 import re import os import csv import codecs user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = { 'User-

python 爬虫抓取心得分享

/** author: insun title:python 爬虫抓取心得分享 blog:http://yxmhero1989.blog.163.com/blog/static/112157956201311821444664/ **/    0x1.urllib.quote('要编码的字符串') 如果你要在url请求里面放入中文,对相应的中文进行编码的话,可以用: urllib.quote('要编码的字符串') query = urllib.quote(singername) url = 'h

python爬虫抓取哈尔滨天气信息

python 爬虫 爬取哈尔滨天气信息 - http://www.weather.com.cn/weather/101050101.shtml 环境: windows7 python3.4(pip install requests:pip install BeautifulSoup4) 代码:(亲测可以正确执行) 1 # coding:utf-8 2 """ 3 总结一下,从网页上抓取内容大致分3步: 4 1.模拟浏览器访问,获取html源代码 5 2.通过正则匹配,获取指定

Python爬虫抓取技术的门道

web是一个开放的平台,这也奠定了web从90年代初诞生直至今日将近30年来蓬勃的发展.然而,正所谓成也萧何败也萧何,开放的特性.搜索引擎以及简单易学的html.css技术使得web成为了互联网领域里最为流行和成熟的信息传播媒介:但如今作为商业化软件,web这个平台上的内容信息的版权却毫无保证,因为相比软件客户端而言,你的网页中的内容可以被很低成本.很低的技术门槛实现出的一些抓取程序获取到,这也就是这一系列文章将要探讨的话题-- 网络爬虫 . 有很多人认为web应当始终遵循开放的精神,呈现在页面

Python爬虫抓取 python tutorial中文版,保存为word

看到了中文版的python tutorial,发现是网页版的,刚好最近在学习爬虫,想着不如抓取到本地 首先是网页的内容 查看网页源码后发现可以使用BeautifulSoup来获取文档的标题和内容,并保存为doc文件. 这里需要使用from bs4 import BeautifulSoup 来导入该模块 具体代码如下: # 输出所在网址的内容from bs4 import BeautifulSoup def introduce(url): res = requests.get(url) res.e

Python爬虫--抓取糗事百科段子

今天使用python爬虫实现了自动抓取糗事百科的段子,因为糗事百科不需要登录,抓取比较简单.程序每按一次回车输出一条段子,代码参考了 http://cuiqingcai.com/990.html 但该博主的代码似乎有些问题,我自己做了修改,运行成功,下面是代码内容: 1 # -*- coding:utf-8 -*- 2 __author__ = 'Jz' 3 import urllib2 4 import re 5 6 #糗事百科爬虫类 7 class QSBK: 8 #初始化 9 def __

python 爬虫抓取 MOOC 中国课程的讨论区内容

一:selenium 库 selenium 每次模拟浏览器打开页面,xpath 匹配需要抓取的内容.可以,但是特别慢,相当慢.作为一个对技术有追求的爬虫菜鸡,狂补了一些爬虫知识.甚至看了 scrapy 框架,惊呆了,真棒! 网上很多关于 selenium 库的详细介绍,这里略过此方法. 二: requests 库 编写一个爬虫小脚本,requests 库极为方便.接下来进入正题,如何抓取 MOOC 中国上课程的讨论内容! 1. 分析网页数据 打开你需要抓取数据的课程页面,点击讨论区之后页面加载讨