【Python3爬虫】斗鱼弹幕爬虫

在网上找到了一份斗鱼弹幕服务器第三方接入协议v1.6.2,有了第三方接口,做起来就容易多了。

一、协议分析

斗鱼后台协议头设计如下:

这里的消息长度是我们发送的数据部分的长度和头部的长度之和,两个消息长度是一样。然后要注意的是该协议使用的是小端整数,所以我们要对数据进行处理后再发送,这里可以使用int.to_bytes()将整数转变成小端整数的形式。示例如下:

int.to_bytes(12,4,‘little‘)   # b‘\x0c\x00\x00\x00‘

int.to_bytes(12,4,‘big‘)     # b‘\x00\x00\x00\x0c‘

然后消息类型是689(689表示客户端发送给服务器,690表示服务器发送给客户端),加密字段和保留字段都是默认为0。这里由于消息类型是两个字节的,加密字段和保留字段都是一个字节,但是因为加密字段和保留字段都是0,所以这四个字节可以使用int.to_bytes(689,4,‘little‘)来表示。最后该协议使用的是utf-8编码,所以我们需要对整个数据进行编码后再发送。

二、具体步骤

1、连接服务器

第三方客户端通过 TCP 协议连接到弹幕服务器(依据指定的 IP 和端口),其中IP 地址为openbarrage.douyutv.com,端口为8601,相关代码如下:

client = socket.socket(socket.AF_INET, socket.SOCK_STREAM)host = socket.gethostbyname("openbarrage.douyutv.com")port = 8601client.connect((host, port))

2、发送登录请求

客户端向弹幕服务器发送登录请求,登录弹幕服务器,格式如下:

[email protected]=loginreq/[email protected]=房间号/

3、发送加组请求

客户端收到登录成功消息后发送进入弹幕分组请求给弹幕服务器,格式如下:

[email protected]=joingroup/[email protected]=房间号/[email protected]=-9999/

gid表示分组号,第三方平台建议选择-9999即海量弹幕模式。

4、接收广播消息

接收服务器发送的广播消息,包括用户发的弹幕和送的礼物信息,然后解析得到具体的内容。但这些数据里只有礼物的id而没有具体的礼物名称,然后我通过抓包找到了两个链接,里面包含了礼物id和名称的对应关系,相关代码如下:

 1 gift_dict = {}
 2 headers = {
 3     "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.75 Safari/537.36"
 4 }
 5 url1 = "https://webconf.douyucdn.cn/resource/common/gift/flash/gift_effect.json"
 6 res1 = requests.get(url1, headers=headers)
 7 js1 = json.loads(res1.text.lstrip(‘DYConfigCallback(‘).rstrip(‘);‘))
 8 gift_data1 = js1[‘data‘][‘flashConfig‘]
 9 for i in gift_data1.keys():
10     gift_dict[gift_data1[i][‘id‘]] = gift_data1[i][‘name‘]
11
12 url2 = "https://webconf.douyucdn.cn/resource/common/prop_gift_list/prop_gift_config.json"
13 res2 = requests.get(url2, headers=headers)
14 js2 = json.loads(res2.text.lstrip(‘DYConfigCallback(‘).rstrip(‘);‘))
15 gift_data2 = js2[‘data‘]
16 for i in gift_data2.keys():
17     gift_dict[int(i)] = gift_data2[i][‘name‘]

5、发送心跳消息

客户端每隔45秒给服务器发送一次心跳消息,用于维护和服务器后台间的联系,格式如下:

keep_msg = "[email protected]=keeplive/[email protected]=十位时间戳"  # 旧版心跳消息keep_msg = "mrkl/"  # 新版心跳消息

6、核心代码

在发送数据的时候,有可能会出现一次无法发送完的情况,所以就需要多发送几次,确保把数据都发送出去:

 1 msg = msg + ‘\0‘  # 数据以‘\0‘结尾
 2 msg = msg.encode(‘utf-8‘)  # 使用utf-8编码
 3 length = len(msg) + 8  # 消息长度
 4 code = 689  # 消息类型
 5 # 消息头部:消息长度+消息长度+消息类型+加密字段(默认为0)+保留字段(默认为0)
 6 head = int.to_bytes(length, 4, ‘little‘) + int.to_bytes(length, 4, ‘little‘) + int.to_bytes(code, 4, ‘little‘)
 7 # 发送头部部分
 8 client.send(head)
 9 # 发送数据部分
10 sent = 0
11 while sent < len(msg):
12     n = client.send(msg[sent:])  # 返回已发送的数据长度
13     sent = sent + n

三、运行结果

运行截图:

进入数据库查看结果:

db.getCollection(‘DouYu-6039226‘).find({"data_type":"gift"})

结果如下:

还可以看看大家都发了什么弹幕:

db.getCollection(‘DouYu-6039226‘).find({"data_type":"chat"},{"user_name":1,"chat_txt":1,"_id":0})

结果如下:

完整代码已上传到GitHub:https://github.com/QAQ112233/DouYu

原文地址:https://www.cnblogs.com/TM0831/p/10240078.html

时间: 2024-11-04 06:00:13

【Python3爬虫】斗鱼弹幕爬虫的相关文章

爬虫与反爬虫

转自:https://mp.weixin.qq.com/s/-w-yC6PCdTOpfKS8HZEleA 前言 爬虫与反爬虫,是一个很不阳光的行业. 这里说的不阳光,有两个含义. 第一是,这个行业是隐藏在地下的,一般很少被曝光出来.很多公司对外都不会宣称自己有爬虫团队,甚至隐瞒自己有反爬虫团队的事实.这可能是出于公司战略角度来看的,与技术无关. 第二是,这个行业并不是一个很积极向上的行业.很多人在这个行业摸爬滚打了多年,积攒了大量的经验,但是悲哀的发现,这些经验很难兑换成闪光的简历.面试的时候,

python 网络爬虫,python 网络爬虫

# -*- coding: utf-8 -*- # python:2.x __author__ = 'Administrator' import urllib2 #例子 LOGIN='wesc' PASSWD="you'llNeverGuess" URL='http://localhost' def h1(url): from urlparse import urlparse as  up hdlr=urllib2.HTTPBasicAuthHandler() hdlr.add_pas

爬虫反反爬虫:转

著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处.作者:xlzd链接:http://www.zhihu.com/question/34980963/answer/60627797来源:知乎 爬虫自动换User-Agent在代码实现上只需要一句就够了,并不是什么高难度的技术活.爬虫为什么要换不同的User-Agent呢,无非就是为了模拟浏览器,让服务器不容易识别出自己是爬虫. 对于爬虫,其实上上策是爬网站之前先去读一下网站的『robots.txt』文件,看看网站开发者(或网站主人

【转载】不会编程也能写爬虫?可视化爬虫工具是什么东东

原文:不会编程也能写爬虫?可视化爬虫工具是什么东东 随着Scrapy等框架的流行,用Python等语言写爬虫已然成为一种时尚.但是今天,我们并不谈如何写爬虫,而是说说不要写代码就能写出来的爬虫. 爬虫新时代 在早期互联网世界,写爬虫是一项技术含量非常高的活,往大的方向说,爬虫技术是搜索引擎的重要组成部分. 随着互联网技术的发展,写爬虫不再是门槛非常高的技术了,一些编程语言甚至直接提供爬虫框架,例如python的Scrapy框架,它们让写爬虫走入“寻常百姓家”. 在知乎的热门话题“能利用爬虫技术做

【Python】爬虫与反爬虫大战

爬虫与发爬虫的厮杀,一方为了拿到数据,一方为了防止爬虫拿到数据,谁是最后的赢家? 重新理解爬虫中的一些概念 爬虫:自动获取网站数据的程序反爬虫:使用技术手段防止爬虫程序爬取数据误伤:反爬虫技术将普通用户识别为爬虫,这种情况多出现在封ip中,例如学校网络.小区网络再或者网络网络都是共享一个公共ip,这个时候如果是封ip就会导致很多正常访问的用户也无法获取到数据.所以相对来说封ip的策略不是特别好,通常都是禁止某ip一段时间访问.成本:反爬虫也是需要人力和机器成本拦截:成功拦截爬虫,一般拦截率越高,

关于爬虫与反爬虫简略方案

像安全与黑客从来都是相辅相成一样. 爬虫与反爬虫也是在双方程序员的斗智斗勇的过程不断发展和成长的. 抓包 抓包的目的: 分析出协议请求使用的数据,请求接口,参数等等. 常用的抓包分析工具: Fiddler Charles Sniffer Wireshark 具体使用策略,请自行百度,Google. 抓数据 这是我使用代理ip请求登录接口时,某APP的响应: 使用 HttpClient 模拟请求 充分了解 HttpClient 的特性,使用方式等. HttpClient4.5官方教程 user_a

1.1. (了解)通用爬虫和聚焦爬虫

通用爬虫和聚焦爬虫 根据使用场景,网络爬虫可分为 通用爬虫 和 聚焦爬虫 两种. 通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Baidu.Google.Yahoo等)的重要组成部分.主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份. 通用搜索引擎(Search Engine)工作原理 通用网络爬虫 从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果. 第一步:

通用爬虫和聚焦爬虫的概念

爬虫根据使用场景,网络爬虫可分为 通用爬虫 和 聚焦爬虫 两种. 通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Baidu.Google.Yahoo等)的重要组成部分.主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份. 通用搜索引擎(Search Engine)工作原理 通用网络爬虫 从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果. 第一步:抓取网页 搜索引

Python爬虫入门之一通用爬虫和聚焦爬虫

前言 为什么要做爬虫? 首先请问:都说现在是"大数据时代",那数据从何而来? 企业产生的用户数据:百度指数.阿里指数.TBI腾讯浏览指数.新浪微博指数 数据平台购买数据:数据堂.国云数据市场.贵阳大数据交易所 政府/机构公开的数据:中华人民共和国国家统计局数据.世界银行公开数据.联合国数据.纳斯达克 数据管理咨询公司:麦肯锡.埃森哲.艾瑞咨询 爬取网络数据:如果需要的数据市场上没有,或者不愿意购买,那么可以选择招/做一名爬虫工程师,自己动手丰衣足食. 爬虫是什么? 网络爬虫是一种按照一