手动输入验证码

总结:

因为一些验证码使用ocr识别效率比较低,所以就是有时候需要使用手动输入验证码,那么首先就是需要在网页上找到验证码的链接,很多时候验证码的链接是后面有个时间戳的失效时间的,

例如:

code_url = ‘https://www.xinhehui.com/Index/Index/verify?version=58d8e16c99f39‘

version后面就是经过时间戳得到的,所以就是如果不是根据这个时间戳来获取,会有一个过期或者叫做失效的一个情况出现。

那么获得验证码的链接之后,就可以去下载图片了,如下是使用requests去获取的,

1、第一根据获取得到的二进制而去打开的一个图片:

image = requests.get(self.code_url,headers=headers,stream=True,verify=False)
        i = Image.open(StringIO(image.content))
        i.show()

是使用二进制流去打开图片

2、还有一个办法就是直接下载下来一个路径,然后再打开图片进行获取该验证码。

with closing(requests.get(self.code_url,headers=headers,stream=True,verify=False)) as response1:
            with open(self.path + str(2) + ‘.jpg‘, ‘wb‘) as fd:
                for chunk in response1.iter_content(128):
                    fd.write(chunk)

嗯嗯,应该可以成功获取验证码出来了。

时间: 2024-11-06 14:43:12

手动输入验证码的相关文章

python爬虫scrapy框架——人工识别登录知乎倒立文字验证码和数字英文验证码(2)

操作环境:python3 在上一文中python爬虫scrapy框架--人工识别登录知乎倒立文字验证码和数字英文验证码(1)我们已经介绍了用Requests库来登录知乎,本文如果看不懂可以先看之前的文章便于理解 本文将介绍如何用scrapy来登录知乎. 不多说,直接上代码: import scrapy import re import json class ZhihuSpider(scrapy.Spider): name = 'zhihu' allowed_domains = ['www.zhi

Python Selenium Cookie 绕过验证码实现登录

Python Selenium Cookie 绕过验证码实现登录 之前介绍过博客园的通过cookie 绕过验证码实现登录的方法.这里并不多余,会增加分析和另外一种方法实现登录. 1.思路介绍 1.1.直接看代码,内有详细注释说明 # FileName : Wm_Cookie_Login.py # Author : Adil # DateTime : 2018/3/20 19:47 # SoftWare : PyCharm from selenium import webdriver import

htmlunit 模拟登录 数字验证码

使用htmlunit的好处有两点,相比httpclient,htmlunit是对浏览器的模拟,比如你定位一个按钮,就可以执行click()方法,此外不需要象在httpclient中一样编写复杂的代码,如一堆request header还有一大堆请求参数,你只需要填写用户名,密码,验证码即可,就象在使用一个没有界面的浏览器,当然更重要的是htmlunit对js的支持设置极其简单 1.添加maven的htmlunit(标红)依赖 1 <dependencies> 2 <dependency&

第5章 scrapy爬取知名问答网站

第五章感觉是第四章的练习项目,无非就是多了一个模拟登录. 不分小节记录了,直接上知识点,可能比较乱. 1.常见的httpcode: 2.怎么找post参数? 先找到登录的页面,打开firebug,输入错误的账号和密码,观察post_url变换,从而确定参数. 3.读取本地的文件,生成cookies. 1 try: 2 import cookielib #py2 3 except: 4 import http.cookiejar as cookielib #py3 4.用requests登录知乎

使用Python和Splinter实现12306火车票查询与抢票

有一段时间没有使用Python了,前几天经朋友提起一篇关于用Python实现抢火车票的文章,百度了实现抢火车票的技术细节,网上却有不少资料,也不是新鲜的东西.在了解了一些技术手段,阅读了一些大神的博文后,也尝试实现了一下,代码写得粗糙,纯当娱乐,本文在Windows系统下完成.需要提到的是,抢票过程中的验证码部分只能手动完成. 首先,我需要的工具和组件有: Chrome浏览器 浏览器驱动ChromeDriver Python 3.5 Web应用测试工具Splinter Chrome浏览器可自行下

广播搜寻服务器的动态IP

我服务器放在景区镇上租的住处里,附近经常因为施工或是乱开挖之类的导致断电.我用的电信宽带.每次断电之后服务器自动重启就得重新分配一个ip.因为用了域名服务,重启后能根据域名查询到新的IP. 但是,我还是尝到了几次找不到服务器IP的苦头.有次在实验室通宵,准备连接上屋里的服务器做测试,因为以前觉得域名很方便就没有做记录IP的工作.结果就发现连不上了,打电话问住同一小区的朋友是不是停电了,结果根本就没有停电.登陆到我所使用的域名服务器的官网,才发现域名服务器瘫痪了,要维修两天.我特地买了大堆吃的到实

APP开发实战3-APP产品和设计人员的工作

(12)在登录和注册界面,建议设计用户需要手动输入验证码,这样可以防止恶意攻击. (13)iPhone手机基本都使用系统自带的输入法,在用户点击搜索区域,弹出输入法软键盘时,软键盘上会显示搜索按钮:Android手机上使用的输入法各式各样,输入法软键盘上不一定会有搜索按钮. 在设计搜索界面时,iOS APP的右上角通常不需要有搜索按钮,但Android APP的右上角最好要设计有搜索按钮.同时要设计搜索不到数据时的界面. (14)原型应该完整体现各种操作流程,尤其是在出错的状况下的各种处理流程.

Python爬虫学习笔记——豆瓣登陆(一)

#-*- coding:utf-8 -*- import requests from bs4 import BeautifulSoup import html5lib import re import urllib url1 = 'http://accounts.douban.com/login' url2 = 'http://www.douban.com/people/*****/contacts' formdata={ "redir":"http://www.douban

爬虫登陆极客学院,并下载视频

首先说明:这个代码不是免费下载视频,需要你有vip账号 只是方便大家批量下载 不过体验vip也很好获得,有了体验机会赶紧用这个批量下载吧 完整代码在这:我的github 只需要修改最下面的存储地址和需要下载的页面,就可以将一个页面中的课程的所有视频批量下载到指定文件夹 主要是登陆网站这一块废了些时间,简要说一下登陆模块: 首先必须有下面这一部分代码,意思是给urlopen()函数加上cookie处理,否则是不会处理cookie的,但是网站记录我们是谁就是靠cookie的,没有这个那么就无法登陆,