python requests接口测试 -----博客园串接口

 1 #-*- coding:utf-8 -*-
 2 __author__ = "carry"
 3 import requests
 4 import re
 5 # 禁用安全请求警告
 6 from requests.packages.urllib3.exceptions import InsecureRequestWarning
 7 requests.packages.urllib3.disable_warnings(InsecureRequestWarning)
 8
 9 s = requests.session()
10
11 ‘‘‘第一个接口--------------登录接口‘‘‘
12 url1 = "https://passport.cnblogs.com/user/signin"
13 header = {#这里放的headers
14     "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64; rv:46.0) Gecko/20100101 Firefox/46.0",
15     "Accept-Encoding":"gzip, deflate, br",
16     "Accept-Language":"zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
17     "X-Requested-With":"XMLHttpRequest",
18     "Content-Type":"application/json; charset=utf-8",
19     "Cookie":"AspxAutoDetectCookieSupport=1; SERVERID=227b087667da6f8e99a1165002db93f6|1505215478|1505215339"
20 }
21 json_data1 = {"input1":"B45eEa7p/zb2jqJo+ihKz7FeVDXtS380b5w8aTGO1F6uIw7icjMj1YfMFzfnq1C2qsp0boCptBgVT8arrs/E6kpc9/jccd6fzXaJjXwZ0Sf3hxoS08yIPa9KNshl6iK+3JwemykcFRMcvF6J2Vo=",
22              "input2":"x4bkPbfodgUamTPlmz/HOQAU7nsf1kFyXhinHEak49GJMu0FtGLBZg6qlV/NqRh2pI+LKWmqR513h6Ktz4eLA8ThtCxLFs9NvkMkPCn91mqJs29V3FQWPBtVWmRvyn9gEtFDJlKqSHb7tPer57bvRdE=",
23              "remember":False}
24 res1 = s.post(url1, headers=header, json=json_data1, verify=False)
25 print (res1.json())
26
27 ‘‘‘第二个接口--------------存为草稿接口‘‘‘
28 url2 = "https://i.cnblogs.com/EditPosts.aspx?opt=1"
29 json_data2 = {"__VIEWSTATE": "",
30      "__VIEWSTATEGENERATOR": "FE27D343",
31      "Editor$Edit$txbTitle": "我是杀手2号",
32      "Editor$Edit$EditorBody": "<p>%s</p>" % "我是杀手2号",
33      "Editor$Edit$Advanced$ckbPublished": "on",
34      "Editor$Edit$Advanced$chkDisplayHomePage": "on",
35      "Editor$Edit$Advanced$chkComments": "on",
36      "Editor$Edit$Advanced$chkMainSyndication": "on",
37      "Editor$Edit$lkbDraft": "存为草稿", }
38 res2 = s.post(url2, data=json_data2, verify=False)
39 print(res2.url)
40 ‘‘‘这个地方是提取postid,使用正则表达式‘‘‘
41 postid = re.findall(r"postid=(.+?)&", res2.url)
42 print (postid)
43 print (postid[0])
44
45 ‘‘‘第三个接口--------------删除草稿接口‘‘‘
46 json_data3 = {"postId": postid[0]}
47 r3 = "https://i.cnblogs.com/post/delete"
48 res3 = s.post(r3, json=json_data3, verify=False)
49 print(res3.json()["isSuccess"])
时间: 2024-12-11 13:09:14

python requests接口测试 -----博客园串接口的相关文章

运用python抓取博客园首页的所有数据,而且定时持续抓取新公布的内容存入mongodb中

原文地址:运用python抓取博客园首页的所有数据,而且定时持续抓取新公布的内容存入mongodb中 依赖包: 1.jieba 2.pymongo 3.HTMLParser # -*- coding: utf-8 -*- """ @author: jiangfuqiang """ from HTMLParser import HTMLParser import re import time from datetime import date im

运用python抓取博客园首页的全部数据,并且定时持续抓取新发布的内容存入mongodb中

原文地址:运用python抓取博客园首页的全部数据,并且定时持续抓取新发布的内容存入mongodb中 依赖包: 1.jieba 2.pymongo 3.HTMLParser # -*- coding: utf-8 -*- """ @author: jiangfuqiang """ from HTMLParser import HTMLParser import re import time from datetime import date im

使用python selenium-webdriver模拟博客园登录

初学python,最近在抱着虫师的python+selenium自动化的书看,也尝试写个登录功能的验证2333 code:########################## #使用python selenium-webdriver #模拟博客园的登录流程 #首页--登录页面--跳转回首页--检查--退出登录恢复环境 ########################### from selenium import webdriver import time import sys url_cnbl

Python - 爬取博客园某一目录下的随笔 - 保存为docx

1 #coding:utf-8 2 import requests 3 from bs4 import BeautifulSoup 4 import MySQLdb 5 6 7 def get_html(url): 8 ''' 9 获取页面HTML源码,并返回 10 ''' 11 html = requests.get(url) 12 content = html.text.encode('utf-8') 13 return content 14 15 def get_blog_html_lis

python 爬虫 计算博客园浏览量,刷浏览量

首先进入博客园的管理页面: 通过观察A-JAX请求,发现博客的分类(categories)是一个json格式的数据即:                                    于是先爬取categories.通过各个分类的页面进而爬去地址,浏览量,打开一个category的页面: 检查网页     这样就得到了每个博客的地址和浏览量了 上代码,其他一些问题在代码中给出注释: import time import requests import json import re from

用python自动登录博客园

Python自动化第一天 Python强大的功能解放你的双手,账号多了,登录麻烦,密码一样又感觉不安全,不一样有容易忘记或混淆,咋办呢?这个时候python就上场了,它说:“简单,用自动化写个登录代码,简单粗暴,在封装起来,以后再也不用担心记不住了”下面写了个简单的博客园登录,写的不怎么好哈,有需要的兄弟姐妹可以看看,然后自己改改就能换成你们想登录的账号了,对于封装和导入,下篇再来介绍 from selenium import webdriverimport timea=webdriver.Ch

python+scrapy分析博客园首页4000篇优质博客(图解)

1.侵删 本文数据是获取的博客园首页的4000条数据,为了不对博客园服务器造成压力,所以源码不会公开,在此,敬请博客园官方团队放心. 获取到的数据从2019-7-11到2019-9-12,此数据也不会公开. 由于会涉及到一些博主的数据,所以有博主不愿公开数据,联系我及时删除. 2.先上数据分析结果 写文最多的博主top6 ---->(最勤劳的博主)?(′?`*) 黑白影-->发文54篇 周国通-->发文38篇 宜信技术-->发文30篇 削微寒-->发文28篇 泰斗贤若如--&

python模拟登录博客园(附:问题求教)

经过分析,博客园登录时采用了JSEncrypt加密,因此登录请求时要用密文,涉及字段如下 input1:用户名对应的密文 input2:密码对应的密文 登录请求链接https://passport.cnblogs.com/user/signin 1 import urllib 2 import http.cookiejar 3 import json 4 5 cookie = http.cookiejar.CookieJar() 6 cookie = http.cookiejar.Mozilla

爬虫实战【1】使用python爬取博客园的某一篇文章

第一次实战,我们以博客园为例. Cnblog是典型的静态网页,通过查看博文的源代码,可以看出很少js代码,连css代码也比较简单,很适合爬虫初学者来练习. 博客园的栗子,我们的目标是获取某个博主的所有博文,今天先将第一步. 第一步:已知某一篇文章的url,如何获取正文? 举个栗子,我们参考'农民伯伯'的博客文章吧,哈哈.他是我关注的一个博主. http://www.cnblogs.com/over140/p/4440137.html 这是他的一篇名为"[读书笔记]长尾理论"的文章. 我