Python开发网络爬虫抓取某同城房价信息

前言:

苦逼的我从某某城市换到另一个稍微大点的某某城市,面临的第一个问题就是买房,奋斗10多年,又回到起点,废话就不多说了,看看如何设计程序把某同城上的房价数据抓取过来。

方案:方案思路很简单,先把网页内容获取下来,通过一定规则对内容解析,保存成想要的格式

难点是对网页的解析,是一个比较细致的活,必须边输出,边调试。

具体实现:

获取网页内容:

def get_page(url):
    headers = {
        ‘User-Agent‘: r‘Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) ‘
                      r‘Chrome/45.0.2454.85 Safari/537.36 115Browser/6.0.3‘,
        ‘Referer‘: r‘http://jn.58.com/ershoufang/‘,
        ‘Host‘: r‘jn.58.com‘,
        ‘Connection‘: ‘keep-alive‘
    }
    timeout = 60
    socket.setdefaulttimeout(timeout)  # 设置超时
    req = request.Request(url, headers=headers)
    response = request.urlopen(req).read()
    page = response.decode(‘utf-8‘,‘ignore‘)
    return page

第二步解析网页:解析时要注意无效内容的处理,不然跑起来会报错,调试很麻烦

def get_58_house(url):   
    html = get_page(url)
    soup =  BeautifulSoup(html,"lxml")
    table =soup.find(id="main")
    df = pd.DataFrame(columns=["op_time","web","house_name","xq","xq1","price","per_price","room","m2","href","ts"])
    for tr in table.find_all(‘tr‘):
        try:
            str_name = tr.find("p","bthead").find("a","t").string.strip()
            str_link = tr.find("p","bthead").find("a","t")["href"]

##房产小区位置
            str_xq = list()  
            str_xq1= ‘‘
            str_xq2= ‘‘
            try:
                for s in tr.find_all("a","a_xq1")    :
                    str_xq.append(s.string.strip()) 
                str_xq1= str_xq[0]
                str_xq2= str_xq[1]
            except:
                pass
            ##房产特色
            str_ts =list()
            try:
                for s in tr.find("div","qj-listleft").stripped_strings:
                    str_ts.append(s)
            except:
                pass

## 价格信息####################
            str_price =list()
            str_toal =‘‘
            str_per =‘‘
            str_room =‘‘
            str_m2 =‘‘
            try:
                for s in tr.find("div","qj-listright btall").stripped_strings:
                    str_price.append(s)
                str_toal = str_price[0]
                str_per  = re.findall(r"(\d+\.*\d+)",str_price[1])
                str_room = str_price[2]
                str_m2  = re.findall(r"(\d+\.*\d+)",str_price[3])           
            except:
                pass
        except Exception as e:
            print(‘Exception‘,":",e)
                       
        try: 
            row = {‘web‘:‘58同城‘,‘house_name‘:str_name,‘xq‘:str_xq1,‘xq1‘:str_xq2,‘price‘:str_toal,‘per_price‘:str_per,‘room‘:str_room,‘m2‘:str_m2,‘ts‘:‘‘.join(str_ts),‘href‘:str_link}
            newrow = pd.DataFrame(data=row,index=["0"])
            df=df.append(newrow,ignore_index=True)
        except Exception as e:
            print(‘Exception‘,":",e)
            f=open("log.txt",‘a‘)
            traceback.print_exc(file=f) 
            f.write(row) 
            f.flush() 
            f.close()
    df["op_time"]=time.strftime(‘%Y-%m-%d‘,time.localtime(time.time()))
    return df

第三步循环处理每页数据并保存数据:

def get_58_house_all():
    ##建立数据库连接
    engine = create_engine(‘oracle+cx_oracle://user:[email protected]/orcl‘)
    cnx = engine.connect() 
    ##先清除今天的数据
    ‘‘‘
    strSql = ‘delete from house where op_time=\‘{}\‘ ‘.format(time.strftime(‘%Y-%m-%d‘,time.localtime(time.time())))
    cnx.execute(strSql)
    ‘‘‘
    ##获取首页房产数据   
    str_http = "http://jn.58.com/ershoufang/"
   
    writelog(time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()))+‘ Start:‘+str_http)
       
    df1=get_58_house(str_http)
    try:
        df1.to_sql(‘house‘, cnx,if_exists=‘append‘)
    except Exception as e:
        ‘‘‘记录异常信息
                    本例使用的是oracle 数据库,默认编码格式为GBK,保存时因为特殊字符,导致保存错误。错误提示如下,需要调整oracle字符集
         oracle 字符集调整为UTF8,
         NLS_LANG: AMERICAN_AMERICA.AL32UTF8
         NLS_CHARACTERSET: UTF8
         NLS_NCHAR_CHARACTERSET: UTF8
                   报错信息为
         UnicodeEncodeError: ‘gbk‘ codec can‘t encode character ‘\xb2‘ in position 13: illegal multibyte sequence
                     该字符为上标2,平方米          
        ‘‘‘
        writelog(time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()))+‘ Except:‘+str_http)
       
        df1.to_csv(‘record.csv‘,sep=‘,‘, encoding=‘utf-8‘)
        writelog(traceback.format_exc())
       
    writelog(time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()))+‘ End:‘+str_http)
    time.sleep(20)
 
    ##获取其余69页房产数据
    for i in range(2,70+1) :
        try:
            str_http ="http://jn.58.com/ershoufang/pn"+str(i)
            writelog(time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()))+‘ Start:‘+str_http)
           
            df1=get_58_house(str_http)       
            df1.to_sql(‘house‘, cnx,if_exists=‘append‘)
        except Exception as e:
            ##writelog(‘‘.format(‘Save to database Exception‘,":",e)  )
            writelog(time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()))+‘ Except:‘+str_http)
           
            df1.to_csv(‘record.csv‘,sep=‘,‘, encoding=‘utf-8‘)
            writelog(traceback.format_exc())
           
        writelog(time.strftime(‘%Y-%m-%d %H:%M:%S‘,time.localtime(time.time()))+‘ End:‘+str_http)
        time.sleep(20)

##关闭数据链接
    cnx.close()

跑跑看看是不是程序一切运行正常。

时间: 2024-10-08 20:07:42

Python开发网络爬虫抓取某同城房价信息的相关文章

Python 实现网络爬虫 抓取静态网页【代码】

#---------------------------------import--------------------------------------- #coding:utf-8 import urllib2; from BeautifulSoup import BeautifulSoup; #------------------------------------------------------------------------------ def main(): #抓 user

网络爬虫: 抓取allitebooks.com书籍信息及ISBN码, save books name and ISBN into .csv(2) from backslash112

from urllib2 import urlopen from bs4 import BeautifulSoup import csv # Get the next page url from the current page url def get_next_page_url(url): page = urlopen(url) soup_page = BeautifulSoup(page, 'lxml') page.close() # Get current page and next pa

如何利用Python网络爬虫抓取微信朋友圈的动态(上)

今天小编给大家分享一下如何利用Python网络爬虫抓取微信朋友圈的动态信息,实际上如果单独的去爬取朋友圈的话,难度会非常大,因为微信没有提供向网易云音乐这样的API接口,所以很容易找不到门.不过不要慌,小编在网上找到了第三方工具,它可以将朋友圈进行导出,之后便可以像我们正常爬虫网页一样进行抓取信息了. [出书啦]就提供了这样一种服务,支持朋友圈导出,并排版生成微信书.本文的主要参考资料来源于这篇博文:https://www.cnblogs.com/sheng-jie/p/7776495.html

如何利用Python网络爬虫抓取微信好友数量以及微信好友的男女比例

前几天给大家分享了利用Python网络爬虫抓取微信朋友圈的动态(上)和利用Python网络爬虫爬取微信朋友圈动态--附代码(下),并且对抓取到的数据进行了Python词云和wordart可视化,感兴趣的伙伴可以戳这篇文章:利用Python词云和wordart可视化工具对朋友圈数据进行可视化. 今天我们继续focus on微信,不过这次给大家带来的是利用Python网络爬虫抓取微信好友总数量和微信好友男女性别的分布情况.代码实现蛮简单的,具体的教程如下. 相信大家都知道,直接通过网页抓取微信的数据

利用Python网络爬虫抓取微信好友的所在省位和城市分布及其可视化

前几天给大家分享了如何利用Python网络爬虫抓取微信好友数量以及微信好友的男女比例,感兴趣的小伙伴可以点击链接进行查看.今天小编给大家介绍如何利用Python网络爬虫抓取微信好友的省位和城市,并且将其进行可视化,具体的教程如下. 爬取微信好友信息,不得不提及这个itchat库,简直太神奇了,通过它访问微信好友基本信息可谓如鱼得水.下面的代码是获取微信好友的省位信息: 程序运行之后,需要扫描进行授权登录,之后在Pycharm的控制台上会出现如下图的红色提示,这些红色的字体并不是我们通常遇到的Py

利用Python网络爬虫抓取微信好友的签名及其可视化展示

前几天给大家分享了如何利用Python词云和wordart可视化工具对朋友圈数据进行可视化,利用Python网络爬虫抓取微信好友数量以及微信好友的男女比例,以及利用Python网络爬虫抓取微信好友的所在省位和城市分布及其可视化,感兴趣的小伙伴可以点击进去看看详情,内容方面不是很难,即使你是小白,也可以通过代码进行实现抓取.今天,小编继续给大家分享如何利用Python网络爬虫抓取微信好友的签名及其可视化展示,具体的教程如下所示. 1.代码实现还是基于itchat库,关于这个神奇的库,在之前的文章中

Python 开发网络爬虫(四): 登录

http://blog.jobbole.com/77878/ 博客 – 伯乐在线 首页最新文章在线课程业界开发 IT技术 设计 创业IT职场投稿更多 ? 伯乐在线 > 首页 > 所有文章 > Python > 零基础自学用Python 3开发网络爬虫(四): 登录 零基础自学用Python 3开发网络爬虫(四): 登录 原文出处: Jecvay Notes (@Jecvay)   欢迎分享原创到伯乐头条 今天的工作很有意思, 我们用 Python 来登录网站, 用Cookies记录

使用Python编写简单网络爬虫抓取视频下载资源

我第一次接触爬虫这东西是在今年的5月份,当时写了一个博客搜索引擎.所用到的爬虫也挺智能的,起码比电影来了这个站用到的爬虫水平高多了! 回到用Python写爬虫的话题. Python一直是我主要使用的脚本语言,没有之中的一个. Python的语言简洁灵活,标准库功能强大.寻常能够用作计算器,文本编码转换,图片处理,批量下载,批量处理文本等.总之我非常喜欢,也越用越上手,这么好用的一个工具,一般人我不告诉他.. .很多其它网络编程教程请上网维教程网 由于其强大的字符串处理能力,以及urllib2,c

[Python学习] 简单网络爬虫抓取博客文章及思想介绍

        前面一直强调Python运用到网络爬虫方面非常有效,这篇文章也是结合学习的Python视频知识及我研究生数据挖掘方向的知识.从而简单介绍下Python是如何爬去网络数据的,文章知识非常简单,但是也分享给大家,就当简单入门吧!同时只分享知识,希望大家不要去做破坏网络的知识或侵犯别人的原创型文章.主要包括: 1.介绍爬取CSDN自己博客文章的简单思想及过程 2.实现Python源码爬取新浪韩寒博客的316篇文章 一.爬虫的简单思想      最近看刘兵的<Web数据挖掘>知道,在研