urllib库利用cookie实现模拟登录慕课网

思路

1.首先在网页中使用账户和密码名登录慕课网

2.其次再分析请求头,如下图所示,获取到请求URL,并提取出cookie信息,保存到本地

3.最后在代码中构造请求头,使用urllib.request发送包含cookie信息的请求

源码

# !/usr/bin/env python
# -*- coding:utf-8 -*-

"""
使用Cokie模拟登录
"""

import urllib.request

url="http://www.imooc.com/u/2346025"
cookie="自己的Cookie字符串"
request_header={
    "Accept":"image/webp,image/apng,image/*,*/*;q=0.8",
    # Accept-Encoding:gzip, deflate, br
    "Accept-Language":"zh-CN,zh;q=0.9",
    "Connection":"keep-alive",
    "Cookie":cookie,
    # Host:hm.baidu.com",
    # "Referer":"http://www.imooc.com/u/2346025",
    "User-Agent":"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36"
}

req=urllib.request.Request(url,headers=request_header)

resp=urllib.request.urlopen(req)

data=resp.read().decode(‘utf-8‘)

print(data)

  

运行结果

入下图,可以看到,已经可以获取到登录后的一些信息了

网址:http://blog.csdn.net/topleeyap/article/details/78841383

原文地址:https://www.cnblogs.com/cxscode/p/8260469.html

时间: 2024-11-10 10:52:11

urllib库利用cookie实现模拟登录慕课网的相关文章

利用cookie进行模拟登录并且抓取失败

首先是朋友发现每次对撞md5都要上网站登录然后进行对撞,感觉好麻烦,想写一个脚本,输入md5值直接输出 然后就上车了 1 模拟登录 老规矩,先要提交表单,进行抓包(我用的fiddler)进行抓包,看见了post的表单,但心血来潮,发现每次模拟登录都利用提交表单的形式好无聊,再加上前些日子写web,就想利cookie试试. 可以看出,这个cookie中, CNZZDATA3819543的ntime是时间, user相当于session,其他都一样,所以可以写出模拟登录的脚本了 import req

Android利用HttpURLConnection实现模拟登录

最近在做一个APP,需要模拟登录教务处,之前曾经用HttpClient做过,点这里,但是发现最新的Android SDK已经不支持Httpclient了,所以只好在琢磨一下HttpURLConnection实现了,其中一个问题浪费了不少时间,下面这行代码一旦添加就无法登录: httpURLConnection.setRequestProperty("Content-Type","text/html; charset=GBK"); 贴一下效果,由于是实现模拟登录,就没

.net mvc 利用cookie实现自动登录 退出后注销信息

1.登录Action中将用户信息加入到cookie中: HttpCookie cookie = new HttpCookie("useridMsg"); cookie.Expires= DateTime.Now.AddDays(7); cookie["userid"] = 你的用户id: Response.Cookies.Add(cookie); 2.创建类CookieFilter并继承FilterAttribute和IActionFilter 实现抽象IActio

Python爬虫的Urllib库有哪些高级用法?

本文和大家分享的主要是python爬虫的Urllib库的高级用法相关内容,一起来看看吧,希望对大家学习python有所帮助. 1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它 是一段HTML代码,加 JS.CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服.所以最重要的部分是存在于HTML中的,下面我 们就写个例子来扒一个网页下来. imp

Python爬虫入门三之Urllib库的基本使用

转自:http://cuiqingcai.com/947.html 那么接下来,小伙伴们就一起和我真正迈向我们的爬虫之路吧. 1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS.CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服.所以最重要的部分是存在于HTML中的,下面我们就写个例子来扒一个网页下来. impor

Python爬虫之Urllib库的基本使用

Python爬虫之Urllib库的基本使用 import urllib2 response = urllib2.urlopen("http://www.baidu.com") print response.read() 其实上面的urlopen参数可以传入一个request请求,它其实就是一个Request类的实例,构造时需要传入Url,Data等等的内容.比如上面的两行代码,我们可以这么改写 # -*- coding: utf-8 -*- """ Cre

PHP模拟登录并获取数据

cURL 是一个功能强大的PHP库,使用PHP的cURL库可以简单和有效地抓取网页并采集内容,设置cookie完成模拟登录网页,curl提供了丰富的函数,开发者可以从PHP手册中获取更多关于cURL信息.本文以模拟登录开源中国(oschina)为例,和大家分享cURL的使用. PHP的curl()在抓取网页的效率方面是比较高的,而且支持多线程,而file_get_contents()效率就要稍低些,当然,使用curl时需要开启下curl扩展. 代码实战先来看登录部分的代码:```//模拟登录 f

【Python数据分析】Python模拟登录(一) requests.Session应用

最近由于某些原因,需要用到Python模拟登录网站,但是以前对这块并不了解,而且目标网站的登录方法较为复杂, 所以一下卡在这里了,于是我决定从简单的模拟开始,逐渐深入地研究下这块. 注:本文仅为交流学习所用. 登录特点:明文传输,有特殊标志数据 会话对象requests.Session能够跨请求地保持某些参数,比如cookies,即在同一个Session实例发出的所有请求都保持同一个cookies,而requests模块每次会自动处理cookies,这样就很方便地处理登录时的cookies问题.

[PHP自动化-进阶]001.模拟登录并采集数据

引言:PHP可以通过libcurl实现模拟登录,提交数据,违法乱纪,烧杀抢虐等等事项. 简单说明一下"libcurl",补一下脑: libcurl目前支持http.https.ftp.gopher.telnet.dict.file和ldap协议. libcurl同时也支持 HTTPS认证.HTTP POST.HTTP PUT. FTP 上传(这个也能通过PHP的FTP扩展完成).HTTP 基于表单的上传.代理.cookies和用户名+密码的认证. 使用curl可以实现Get和Post请