python爬虫案例-乌托家家具公司数据爬取

  这个案例主要是在乌托家网站上爬取家具公司的数据,用的方法是requests模块和xpath语法。代码如下:

 1 # Author:K
 2 import requests
 3 from lxml import etree
 4 import os
 5
 6 HEADERS = {
 7     ‘User-Agent‘:‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.108 Safari/537.36‘
 8 }
 9
10 def parse_page(url):
11     response = requests.get(url=url, headers=HEADERS)
12     page_text = response.text
13     tree = etree.HTML(page_text)
14     li_list = tree.xpath(‘//ul[@class="rec-commodity-ul targetElement"]/li‘)
15     for li in li_list:
16         merchant_href = li.xpath(‘.//div[@class="impression"]/a/@href‘)[0]
17         merchant_name = li.xpath(‘.//div[@class="impression"]/a/text()‘)[0]
18         commodity_name = li.xpath(‘.//div[@class="material"]/a/text()‘)[0]
19         # print(merchant_href,merchant_name,commodity_name)
20         detail_page_text = requests.get(url=merchant_href, headers=HEADERS).text
21         tree = etree.HTML(detail_page_text)
22         div_infos = tree.xpath(‘//div[@class="brand-r"]‘)
23         for div in div_infos:
24             try:
25                 brand_name = div.xpath(‘./div[4]/dl/dd/text()‘)[0]
26                 addr = div.xpath(‘.//p/text()‘)[0]
27                 phone = div.xpath(‘.//dd[2]/text()‘)[0]
28                 # print(brand_name, addr, phone)
29
30                 # 持久化存储
31                 file_path = ‘H:/乌托家/乌托家家具公司.txt‘
32                 fp = open(file_path, ‘r+‘, encoding=‘utf-8‘)
33                 if brand_name not in fp.read():
34                     if str(addr).__contains__(‘广东‘):
35                         fp.write(brand_name+‘   ‘+addr+‘    ‘+phone+‘\n\n‘)
36                         print(brand_name,‘爬取成功!!!‘)
37                         fp.close()
38             except Exception as e:
39                 print(e)
40
41
42 def get_page():
43     for page in range(1,413):
44         url = ‘http://www.wutuojia.com/item/list.html?page=‘ + str(page)
45         parse_page(url)
46
47
48
49 def main():
50     get_page()
51
52
53 if __name__ == ‘__main__‘:
54     # 持久化存储
55     if not os.path.exists(‘H:/乌托家‘):
56         os.mkdir(‘H:/乌托家‘)
57     main()

原文地址:https://www.cnblogs.com/KisInfinite/p/10952938.html

时间: 2024-11-05 13:41:03

python爬虫案例-乌托家家具公司数据爬取的相关文章

Python爬虫入门教程 3-100 美空网数据爬取

简介 从今天开始,我们尝试用2篇博客的内容量,搞定一个网站叫做"美空网"网址为:http://www.moko.cc/, 这个网站我分析了一下,我们要爬取的图片在 下面这个网址 http://www.moko.cc/post/1302075.html 然后在去分析一下,我需要找到一个图片列表页面是最好的,作为一个勤劳的爬虫coder,我找到了这个页面 http://www.moko.cc/post/da39db43246047c79dcaef44c201492d/list.html 列

Python 爬虫入门(三)—— 寻找合适的爬取策略

写爬虫之前,首先要明确爬取的数据.然后,思考从哪些地方可以获取这些数据.下面以一个实际案例来说明,怎么寻找一个好的爬虫策略.(代码仅供学习交流,切勿用作商业或其他有害行为) 1).方式一:直接爬取网站 目标网址:http://chanyouji.com/ 注意:这个网站会拦截IP,访问次数过多,IP会被封,所以,上节的IP代理就用到了. a).打开网页,可以看到这是一个游记类的网站,里面有很多人分享的游记.那我们就爬这些游记.说不定以后有时间出去玩的时候可以用到. b).点开其中一篇游记,可以看

python爬虫入门练习,使用正则表达式和requests爬取LOL官网皮肤

刚刚python入门,学会了requests模块爬取简单网页,然后写了个爬取LOL官网皮肤的爬虫,代码奉上 #获取json文件#获取英雄ID列表#拼接URL#下载皮肤 #导入re requests模块 import requestsimport reimport time def Download_LOL_Skin(): #英雄信息Json文件地址:https://lol.qq.com/biz/hero/champion.js #获取英雄信息列表 json_url = "https://lol.

Python爬虫入门教程: All IT eBooks多线程爬取

All IT eBooks多线程爬取-写在前面 对一个爬虫爱好者来说,或多或少都有这么一点点的收集癖 ~ 发现好的图片,发现好的书籍,发现各种能存放在电脑上的东西,都喜欢把它批量的爬取下来. 然后放着,是的,就这么放着.......然后慢慢的遗忘掉..... All IT eBooks多线程爬取-爬虫分析 打开网址 http://www.allitebooks.com/ 发现特别清晰的小页面,一看就好爬 在点击一本图书进入,发现下载的小链接也很明显的展示在了我们面前,小激动一把,这么清晰无广告的

Python爬虫入门【7】: 蜂鸟网图片爬取之二

蜂鸟网图片--简介 今天玩点新鲜的,使用一个新库 aiohttp ,利用它提高咱爬虫的爬取速度. 安装模块常规套路 pip install aiohttp 运行之后等待,安装完毕,想要深造,那么官方文档必备 :https://aiohttp.readthedocs.io/en/stable/ 接下来就可以开始写代码了. 我们要爬取的页面,这一次选取的是 http://bbs.fengniao.com/forum/forum_101_1_lastpost.html 打开页面,我们很容易就获取到了页

Python爬虫入门【6】:蜂鸟网图片爬取之一

1. 蜂鸟网图片--简介 国庆假日结束了,新的工作又开始了,今天我们继续爬取一个网站,这个网站为 http://image.fengniao.com/ ,蜂鸟一个摄影大牛聚集的地方,本教程请用来学习,不要用于商业目的,不出意外,蜂鸟是有版权保护的网站. 2. 蜂鸟网图片--网站分析 第一步,分析要爬取的网站有没有方法爬取,打开页面,找分页 http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=

Python爬虫入门【8】: 蜂鸟网图片爬取之三

蜂鸟网图片--啰嗦两句 前面的教程内容量都比较大,今天写一个相对简单的,爬取的还是蜂鸟,依旧采用aiohttp 希望你喜欢爬取页面`https://tu.fengniao.com前面程还是基于学习的目的,为啥选择蜂鸟,没办法,我瞎选的. 一顿熟悉的操作之后,我找到了下面的链接https://tu.fengniao.com/ajax/ajaxTuPicList.php?page=2&tagsId=15&action=getPicLists 这个链接返回的是JSON格式的数据 page =2页

Python爬虫入门【5】:27270图片爬取

今天继续爬取一个网站,http://www.27270.com/ent/meinvtupian/这个网站具备反爬,所以我们下载的代码有些地方处理的也不是很到位,大家重点学习思路,有啥建议可以在评论的地方跟我说说. 为了以后的网络请求操作方向,我们这次简单的进行一些代码的封装操作. 这里在你可以先去安装一个叫做retrying的模块 pip install retrying 这个模块的具体使用,自己去百度吧.嘿嘿哒? 在这里我使用了一个随机产生USER_AGENT的方法 import reques

一个咸鱼的Python爬虫之路(四):将爬取数据存入mysql

Python 与 mysql 数据连接 用pymysql import pymysql conn =pymysql.connect(host='127.0.0.1',user='root',password='123456',db='company',charset="utf8") cur=conn.cursor() sql=''' ''' employee=cur.execute(sql) conn.commit() cur.close() conn.close() 基本操作大概就这