selenium爬取斗鱼所有直播房间信息

还是分析一下大体的流程:

  • 首先还是Chrome浏览器抓包分析元素,这是网址:https://www.douyu.com/directory/all
  • 发现所有房间的信息都是保存在一个无序列表中的li中,所以我们可以先获取一个装有li的element对象的列表,然后在对每个element逐一操作
  • 分析斗鱼的翻页,有一个下一页按钮,是个li,class="dy-Pagination-item-custom",但是当烦到最后一页的时候,class="dy-Pagination-disabled dy-Pagination-next",所以我们要想利用selenium模拟点击这个按钮,我们应该利用get_elements_by_xpath()这个函数,这样到最后一页就获取不到了,就可以终止程序了。而用elements的原因是当到最后一页的时候获取不到的话,element会报错
  • 然后还是通用的套路:发送请求获取响应、提取数据和下一页的元素、保存数据、点击下一页的元素循环......

遇到的两个坑:

  • 需要用time.sleep()函数强制等待页面加载完再获取元素,否则报错,睡几秒就看你的网速了
  • xpath定位的时候,网页上有的类如这样:class=" abc"或者class="abc ",前面或后面有空格的,xpath处理的时候也必须有空格,否则获取不到

代码实现:

 1 import time
 2 from selenium import webdriver
 3
 4
 5 class DouyuSpider(object):
 6     def __init__(self):
 7         self.start_rul = ‘https://www.douyu.com/directory/all‘
 8         self.driver = webdriver.Chrome()
 9
10     def get_content_list(self):
11         time.sleep(10)  # 强制等待10秒,否则可能报错
12         li_list = self.driver.find_elements_by_xpath(‘//ul[@class="layout-Cover-list"]/li‘)
13         content_list = []
14         for li in li_list:
15             item = {}
16             item[‘room_img‘] = li.find_element_by_xpath(‘.//img[@class="DyImg-content is-normal "]‘).get_attribute(‘src‘)
17             item[‘room_title‘] = li.find_element_by_xpath(‘.//h3[@class="DyListCover-intro"]‘).text
18             item[‘root_category‘] = li.find_element_by_xpath(‘.//span[@class="DyListCover-zone"]‘).text
19             item[‘author_name‘] = li.find_element_by_class_name(‘DyListCover-user‘).text
20             item[‘watch_num‘] = li.find_element_by_class_name(‘DyListCover-hot‘).text
21             content_list.append(item)
22             print(item)  # 打印每次获取到的直播房间的信息
23         # 获取下一页的元素,为了防止没有报错,这里用elements,翻到最后一页一定就没有了,返回一个列表
24         next_url = self.driver.find_elements_by_xpath(‘//li[@class=" dy-Pagination-next"]‘)
25         next_url = next_url[0] if len(next_url) > 0 else None
26         return content_list, next_url
27
28     def save_content_list(self, content_list):
29         pass  # 保存数据这里就不再做演示
30
31     def run(self):  # 实现主要逻辑
32         # 1.start_url
33         # 2.发送请求,获取响应
34         self.driver.maximize_window()
35         self.driver.get(self.start_rul)
36         # 3.提取数据,提取下一页的元素
37         content_list, next_url = self.get_content_list()
38         # 4.保存数据
39         self.save_content_list(content_list)
40         # 4.点击下一页元素,循环
41         while next_url is not None:
42             next_url.click()
43             content_list, next_url = self.get_content_list()
44             self.save_content_list(content_list)
45
46
47
48 if __name__ == ‘__main__‘:
49     douban = DouyuSpider()
50     douban.run()

原文地址:https://www.cnblogs.com/springionic/p/11140982.html

时间: 2024-10-08 22:04:24

selenium爬取斗鱼所有直播房间信息的相关文章

Python——selenium爬取斗鱼房间信息

1 from selenium import webdriver 2 import os 3 import json 4 import time 5 6 7 class Douyu: 8 def __init__(self): 9 # 1.发送首页的请求 10 self.driver = webdriver.Chrome('../chromedriver.exe') 11 self.driver.get('https://www.douyu.com/g_yz') 12 13 # 获取页面内容 1

[Python爬虫] Selenium爬取新浪微博客户端用户信息、热点话题及评论 (上)

一. 文章介绍 前一篇文章"[python爬虫] Selenium爬取新浪微博内容及用户信息"简单讲述了如何爬取新浪微博手机端用户信息和微博信息. 用户信息:包括用户ID.用户名.微博数.粉丝数.关注数等. 微博信息:包括转发或原创.点赞数.转发数.评论数.发布时间.微博内容等. 它主要通过从文本txt中读取用户id,通过"URL+用户ID" 访问个人网站,如柳岩: http://weibo.cn/guangxianliuya 因为手机端数据相对精简简单,所以采用输

[Python爬虫] Selenium爬取新浪微博移动端热点话题及评论 (下)

这篇文章主要讲述了使用python+selenium爬取新浪微博的热点话题和评论信息.其中使用该爬虫的缺点是效率极低,傻瓜式的爬虫,不能并行执行等,但是它的优点是采用分析DOM树结构分析网页源码并进行信息爬取,同时它可以通过浏览器进行爬取中间过程的演示及验证码的输入.这篇文章对爬虫的详细过程就不再论述了,主要是提供可运行的代码和运行截图即可.希望文章对你有所帮助吧~ 参考文章 [python爬虫] Selenium爬取新浪微博内容及用户信息 [Python爬虫] Selenium爬取新浪微博客户

多线程Beatiful Soup爬取斗鱼所有在线主播的信息

最近看了个爬虫的教程,想着自己也常在斗鱼看直播,不如就拿它来练练手.于是就写了个爬取斗鱼所有在线主播的信息,分别为类别.主播ID.房间标题.人气值.房间地址. 需要用到的工具python3下的bs4,requests,pymongo.我用的IDE是pycharm,感觉这个软件实在太强大,有点离开它什么都不会的感觉,数据库Mongodb,结合pycharm工具可以直接在右侧显示数据. #-*- coding:utf-8 -*- from bs4 import BeautifulSoup impor

21天打造分布式爬虫-Selenium爬取拉钩职位信息(六)

6.1.爬取第一页的职位信息 第一页职位信息 from selenium import webdriver from lxml import etree import re import time class LagouSpider(object): def __init__(self): self.driver = webdriver.Chrome() #python职位 self.url = 'https://www.lagou.com/jobs/list_python?labelWords

利用Selenium爬取淘宝商品信息

一.  Selenium和PhantomJS介绍 Selenium是一个用于Web应用程序测试的工具,Selenium直接运行在浏览器中,就像真正的用户在操作一样.由于这个性质,Selenium也是一个强大的网络数据采集工具,其可以让浏览器自动加载页面,这样,使用了异步加载技术的网页,也可获取其需要的数据. Selenium模块是Python的第三方库,可以通过pip进行安装: pip3 install selenium Selenium自己不带浏览器,需要配合第三方浏览器来使用.通过help命

[python爬虫] Selenium爬取CSDN博客摘要及问题

本文主要是采用Selenium来爬取CSDN的博文摘要,为后面对CSDN的热点技术.近几年专家发表的博客作数据分析.由于采用BeautifulSoup爬取该网站会报错"HTTPError: Forbidden",所以作者采用Selenium爬取.同时,在爬取过程中遇到了局部动态更新的问题,无法定位换页的问题,作者采用Firebug进行分析,也希望读者提出更好的方法.代码下载地址: 一. CSDN博客网站分析及问题 本文主要爬取CSDN专家的博客,因为专家的论文水平相对高点,同时专栏较多

[python爬虫] Selenium爬取内容并存储至MySQL数据库

前面我通过一篇文章讲述了如何爬取CSDN的博客摘要等信息.通常,在使用Selenium爬虫爬取数据后,需要存储在TXT文本中,但是这是很难进行数据处理和数据分析的.这篇文章主要讲述通过Selenium爬取我的个人博客信息,然后存储在数据库MySQL中,以便对数据进行分析,比如分析哪个时间段发表的博客多.结合WordCloud分析文章的主题.文章阅读量排名等.        这是一篇基础性的文章,希望对您有所帮助,如果文章中出现错误或不足之处,还请海涵.下一篇文章会简单讲解数据分析的过程. 一.

爬虫实例之selenium爬取淘宝美食

这次的实例是使用selenium爬取淘宝美食关键字下的商品信息,然后存储到MongoDB. 首先我们需要声明一个browser用来操作,我的是chrome.这里的wait是在后面的判断元素是否出现时使用,第二个参数为等待最长时间,超过该值则抛出异常. browser = webdriver.Chrome() wait = WebDriverWait(browser,10) 声明好之后就需要进行打开网页.进行搜索的操作. #使用webdriver打开chrome,打开淘宝页面,搜索美食关键字,返回