python爬虫公众号所有信息,并批量下载公众号视频

前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: 数据分析实战

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef

主要功能

  • 如何简单爬虫微信公众号
  • 获取信息:标题、摘要、封面、文章地址
  • 自动批量下载公众号内的视频

一、获取公众号信息:标题、摘要、封面、文章URL

操作步骤:

1、先自己申请一个公众号 2、登录自己的账号,新建文章图文,点击超链接

代码

 1 import re
 2 ?
 3 import requests
 4 import jsonpath
 5 import json
 6 ?
 7 headers = {
 8 "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36",
 9 "Host": "mp.weixin.qq.com",
10 "Referer": "https://mp.weixin.qq.com/cgi-bin/appmsg?t=media/appmsg_edit&action=edit&type=10&isMul=1&isNew=1&lang=zh_CN&token=1862390040",
11 "Cookie": "自己获取信息时的cookie"
12        }
13 ?
14 def getInfo():
15     for i in range(80):
16         # token  random 需要要自己的   begin:参数传入
17         url = "https://mp.weixin.qq.com/cgi-bin/appmsg?token=1904193044&lang=zh_CN&f=json&ajax=1&random=0.9468236563826882&action=list_ex&begin={}&count=5&query=&fakeid=MzI4MzkzMTc3OA%3D%3D&type=9".format(str(i * 5))
18 ?
19         response = requests.get(url, headers = headers)
20 ?
21         jsonRes = response.json()
22 ?
23 ?
24         titleList = jsonpath.jsonpath(jsonRes, "$..title")
25         coverList = jsonpath.jsonpath(jsonRes, "$..cover")
26         urlList = jsonpath.jsonpath(jsonRes, "$..link")
27 ?
28         # 遍历 构造可存储字符串
29         for index in range(len(titleList)):
30             title = titleList[index]
31             cover = coverList[index]
32             url = urlList[index]
33 ?
34             scvStr = "%s,%s, %s,\n" % (title, cover, url)
35             with open("info.csv", "a+", encoding="gbk", newline=‘‘) as f:
36                 f.write(scvStr)

获取结果(成功):

二、获取文章内视频:实现批量下载

通过对单篇视频文章分析,我找到了这个链接:

通过网页打开发现,是视频的网页下载链接:

哎,好像有点意思了,找到了视频的网页纯下载链接,那就开始吧。

发现链接里的有一个关键参数vid 不知道哪来的? 和获取到的其他信息也没有关系,那就只能硬来了。

通过对单文章的url请求信息里发现了这个参数,然后进行获取。

1 response = requests.get(url_wxv, headers=headers)
2 ?
3     # 我用的是正则,也可以使用xpath
4     jsonRes = response.text  #  匹配:wxv_1105179750743556096
5     dirRe = r"wxv_.{19}"
6     result = re.search(dirRe, jsonRes)
7 ?
8     wxv = result.group(0)
9     print(wxv)

视频下载:

 1 def getVideo(video_title, url_wxv):
 2     video_path = ‘./videoFiles/‘ + video_title + ".mp4"
 3 ?
 4     # 页面可下载形式
 5     video_url_temp = "https://mp.weixin.qq.com/mp/videoplayer?action=get_mp_video_play_url&preview=0&__biz=MzI4MzkzMTc3OA==&mid=2247488495&idx=4&vid=" + wxv
 6     response = requests.get(video_url_temp, headers=headers)
 7     content = response.content.decode()
 8     content = json.loads(content)
 9     url_info = content.get("url_info")
10     video_url2 = url_info[0].get("url")
11     print(video_url2)
12 ?
13     # 请求要下载的url地址
14     html = requests.get(video_url2)
15     # content返回的是bytes型也就是二进制的数据。
16     html = html.content
17     with open(video_path, ‘wb‘) as f:
18         f.write(html)
那么所有信息就都完成了,进行code组装。

a、获取公众号信息

b、筛选单篇文章信息

c、获取vid信息

d、拼接视频页面下载URL

e、下载视频,保存

代码实验结果:

.

原文地址:https://www.cnblogs.com/Qqun821460695/p/12016306.html

时间: 2024-07-30 01:57:27

python爬虫公众号所有信息,并批量下载公众号视频的相关文章

利用Python实现批量下载腾讯视频!

导语 利用Python下载腾讯非VIP视频,也就是可以免费观看的视频.做这个的起因是最近在看一个叫"请吃红小豆吧"的动漫,一共三分钟的动漫,广告时间竟然要一分钟,实在忍无可忍,于是干脆写个脚本把动漫都先下载下来再看,顺便过来分享一波,让我们愉快地开始吧~ 开发工具 Python版本:3.6.4 相关模块: PIL模块: requests模块: click模块: 以及一些Python自带的模块. 环境搭建 安装Python并添加到环境变量,pip安装需要的相关模块即可. 原理简介 做之前

python爬虫--爬取某网站电影下载地址

前言:因为自己还是python世界的一名小学生,还有很多路要走,所以本文以目的为向导,达到目的即可,对于那些我自己都没弄懂的原理,不做去做过多解释,以免误人子弟,大家可以网上搜索. 友情提示:本代码用到的网址仅供交流学习使用,如有不妥,请联系删除. 背景:自己有台电脑要给老爸用,老爷子喜欢看一些大片,但是家里网络环境不好,就想批量下载一些存到电脑里.但是目前大部分的网站都是这样的, 需要一个个地点进去,才能看到下载地址 如果我要下载100部电影,那肯定手都要点断了,于是便想把这些地址给爬取出来,

批量下载慕课网视频

慕课网(http://www.imooc.com/)上有很多不错的视频,当然我不是来给慕课网打广告的,我本人学习过很多慕课网上的免费的视频. 在线看如果网速慢时,可能会有卡顿,没网时无法观看.所有说下载到本地,离线看视频是非常不错的选择.慕课网上没提供下载视频的入口,想下载到本地怎么办? 如果一次下载一个视频,那是very very easy,不用第三方工具就双腿搞定. 1.打开谷歌或谷歌内核的浏览器,按F12键,打开开始人员工具,地址栏输入http://www.imooc.com/video/

·「python爬虫入门」网易云音乐下载

2015-6-2 今天把昨天Git上看的一个下载网易云音乐歌单歌曲的脚本尝试看懂并修改 Git地址:https://github.com/keli/netease-music #! /usr/bin/env python # -*- coding: utf-8 -*- import urllib2 import json import os import sys import md5 import string import random # Set cookie cookie_opener =

Python爬虫实例(六)多进程下载金庸网小说

目标任务:使用多进程下载金庸网各个版本(旧版.修订版.新修版)的小说 代码如下: # -*- coding: utf-8 -*- import requests from lxml import etree from multiprocessing import Pool import os import sys reload(sys) sys.setdefaultencoding('utf-8') headers = {'User-Agent':'Mozilla/5.0 (Windows NT

如何快速批量下载m3u8(ts)视频?

安装oopsguy/m3u8 https://github.com/oopsguy/m3u8 脚本如下 #!/usr/bin/env bash [[ -n $DEBUG ]] && set -x set -eou pipefail useage() { cat <<HELP USAGE: download_m3u8.sh CONFIGFILE DIR HELP } exit_err() { echo >&2 "${1}" exit 1 } if

Python 实现 CNKI批量下载 和FireFox Extension 入门学习笔记

?                                 Python 实现 CNKI批量下载 和FireFox Extension 入门学习笔记? 由于需要也是为了督促自己学习新的东西,我原本想要尝试着写一个爬虫程序,能够在cnki上自动得将论文进行批量下载,学习过程中遇到了诸多情况,cnki也真是专业,不得不佩服cnki的强大. 下面进入正题: 学习.实验环境:ubuntu 14.04 工具:Eclipse ,  FireFox, FireBug,HttpFox 编程语言:pyth

利用python爬虫关键词批量下载高清大图

前言 在上一篇写文章没高质量配图?python爬虫绕过限制一键搜索下载图虫创意图片!中,我们在未登录的情况下实现了图虫创意无水印高清小图的批量下载.虽然小图能够在一些移动端可能展示的还行,但是放到pc端展示图片太小效果真的是很一般!建议阅读本文查看上一篇文章,在具体实现不做太多介绍,只讲个分析思路. 当然,本文可能技术要求不是特别高,但可以当作一个下图工具使用. 环境:python3+pycharm+requests+re+BeatifulSoup+json 在这里插入图片描述这个确实也属实有一

Python 爬虫批量下载美剧 from 人人影视 HR-HDTV

本人比較喜欢看美剧.尤其喜欢人人影视上HR-HDTV 的 1024 分辨率的高清双字美剧,这里写了一个脚本来批量获得指定美剧的全部 HR-HDTV 的 ed2k下载链接.并依照先后顺序写入到文本文件,供下载工具进行批量下载.比方用迅雷.先打开迅雷,然后复制全部下载链接到剪切板,迅雷会监视剪切板来新建全部任务.假设迅雷没有自己主动监视,能够自己点击新建然后粘贴链接.Python源码例如以下.用的是Python3 : # python3 实现,以下的实例 3 部美剧爬完大概要 10 s import