谷歌浏览器修改cookie访问网页的小插件——EditsThisCookie

cookie是服务器用来区分不同的浏览器客户端的,比如学生A和B同一时段用各自的电脑访问学校访问学校的教务系统查看成绩,登录之后,访问同一页面确出来不同的信息,并且不能查看对方的信息,这就是因为服务器用利用cookie把每个人区分开了。

在登录后,服务器会给你发送一段cookie,浏览器会把这cookie保存下来,然后访问服务器的时候把这段cookie也发送给服务器,服务器根据不同的cookie区分不同的人。cookie以键值对的形式存在,也就是说他是一些键值对。

你如果知道了别人登录后的cookie,那把浏览器对这个服务器访问时的cookie修改别人的,然后再刷新一下页面就变成登的别人的账号了。

谷歌浏览器和火狐浏览器上都有丰富的插件,一些插件用着很方便,这里介绍一个修改cookie的小插件,EditThisCookie

EditThisCookie安装:

从拓展程序里直接搜估计网页打不开,这里送上下载地址 链接

1. 打开拓展程序,如图:

2.  点上开发者模式,下方会有如下图的按钮。

3. 点击 已解压的拓展程序,然后选择刚才下载的EditThisCookie插件包,或者直接把插件包拉进弹出的选择文件框里,然后点击确定就安装了。

4. 安装后浏览器左上角会有插件的图标。

EditThisCookie使用:

这插件使用起来超级简单,点击图标就出来了,简单明了,有重置、修改、导出等功能。

点击下方绿色对勾是修改,然后刷新一下页面就行了,cookie已经变了。

原文地址:https://www.cnblogs.com/panda-blog/p/9306832.html

时间: 2024-09-30 02:09:40

谷歌浏览器修改cookie访问网页的小插件——EditsThisCookie的相关文章

浅谈 php 采用curl 函数库获取网页 cookie 和 带着cookie去访问 网页的方法!!!!

由于近段时间帮朋友开发一个能够查询正方教务系统的微信公众平台号.有所收获.这里总结下个人经验. 开讲前,先吐槽一下新浪云服务器,一个程序里的   同一个函数  在PC测试可以正常运行,在它那里就会挂的现象. 老样子,我将在代码里注释清楚.使用下面的函数,将会获得两种形式的 cookie,一种保存在文件中,一种直接以变量的形式返回, 经验提示: 有时候,在不同的代码运行环境中,带着文件cookie 去访问会成功,而变量却失败,有时候却想法.不过, 目前,这两种方法总有一种会成功. 1 functi

爬虫--用cookie访问任意网页

#!/usr/bin/env python # -*- coding: utf-8 -*- ############################################# # File : requestAnyURLWithCookie.py # Author : lucasysfeng # Revision : 2014-06-13 11:08:00 # Description : 用cookie访问任何网页(已经有cookie了,不需要登录等验证) # : cookie用浏览器查

Python网络爬虫---使用已登录的cookie访问需要登录的网页

使用已登录的Cookie访问登录的网站在网络爬虫中经常使用 1.使用浏览器手动登录网站,点击你需要访问的页面,比如我想访问的资源地址是 http://27.24.159.151:8005/student/GradeQueryPersonal.aspx 访问之后,使用F12启动调试 可以看到访问该资源地址的所需要的Cookie信息 2.开始编码,使用Python2.7的自带的urllib2模块发送带cookie信息的请求头去访问对应的资源地址 #-*-coding:utf-8-*- ''' 登录教

Python抓取需要cookie的网页

Python抓取需要cookie的网页 在仿照<Python小练习:可视化人人好友关系>一文时,需要登录模拟登录人人网.然而自从CSDN事件之后,人人网开始使用加密方式处理登录名和密码,直接使用post方式已经无法登陆人人网.这时,从豆瓣讨论中找到了解决方法: 1. 首先使用浏览器登陆人人,然后找到浏览器中关于登陆的Cookie: 2. 将Cookie记录下来,在Python中使用cookie模块模拟浏览器的行为: 3. 取得并解析数据. 1. HTTP协议与Cookie 抓取网页的过程跟浏览

网络爬虫初步:从访问网页到数据解析

前言: 网络爬虫这个东西看上去还是很神奇的.不过,如果你细想,或是有所研究就知道,其实爬虫并不那么高深.高深的是在我们的数据量很大的时候,就是当我们网络"图"的回环越来越多的时候,应该怎么去解决它. 本篇文章在这里只是起一个抛砖引玉的作用.本文主要是讲解了如何使用Java/Python访问网页并获得网页代码.Python模仿浏览器进行访问网页和使用Python进行数据解析.希望我们以本文开始,一步一步解开网络蜘蛛神秘的一面. 参考: 1.<自己动手写网络爬虫> 2.用pyt

没事把之前项目中搞的比较有用的多图片展示小插件封装并分享一下,供大伙使用

插件demo如下: 实现原理比较简单,主要是用了css中的overflow=hidden特性来设计.比如你一个item宽度(图片+margin)为w,总共有n个item,那么把所有的item按照float=left在一个宽度为n*w的div A里横排过来:然后假如你每页要展示4个item,那么你要在div A外面包一个宽度为4*w的div B然后设置overflow=hidden,那么就只可就看到刚好一页4个item:接下来就是通过控制div B 的left位置来显示翻页时要显示的相应胡第4*i

谷歌浏览器修改CSS和js后同步保存到文件中 (译)

谷歌浏览器修改CSS和js后同步保存到文件中. 英文原文:http://www.stephensaw.me/google-chrome-devtools-source-maps/ 谷歌的Chrome DevTools源地图 谷歌的Chrome DevTools发展得越来越好,尤其是他们快速的Blink and V8的性能 ,而且他们使DevTools更好. 最近我发现,编辑源代码的正确的方式是使用源映射了Chrome DevTools. Source Maps 要验证源地图的开启,转至DevTo

chrome://plugins 无法打开的解决方法,同时解决“该网页已屏蔽插件-adobe flash player”

chrome打开想要看视频时提示该网页已屏蔽插件-adobe flash player,在网上查了半天说在chrome plugins里面打开就可以了.可是chrome://plugins 无法打开,在chrome标签页输入chrome://plugins提示如下页面:其次chrome://plugins 无法打开已经有一段时间了.在http://www.cnplugins.com/tool/chrome-plugins.html找到答案. 因为从谷歌官方的博客上看,chrome://plugi

浏览器首页设置(当被小插件占用时)

之前打开浏览器的时候都显示自己设置的首页,突然有一天显示的不是我设置的百度首页了,原来是金山的一个小插件,到设置里面设置了好几次都不行. 问题在这里: 右键浏览器(chrome为例)---> 属性 ---> 快捷方式  目标 ---> 删除掉其中不认识的网址 (如果其中出现了莫名奇妙的网址) 如果修改不了  再看下面:右键浏览器(chrome为例) ---> 常规 ----> 只读的复选框去掉