knn识别简单验证码

参考

https://www.biaodianfu.com/knn-captcha-recognition.html
内容大致一样,只是根据自己的想法加入了一些改动

KNN(k近邻算法)

算法原理请看:https://www.biaodianfu.com/knn.html

我来说一下sklearn中knn的属性和方法
sklearn.neighbors.KNeighborsClassifier(n_neighbors = 5,weights =‘uniform‘,algorithm =‘auto‘,leaf_size = 30,
p = 2,metric =‘minkowski‘,metric_params = None,n_jobs = None)

  • n_neighbors: 即knn中的K值
  • weights: 样本的权重数组
  • algorithm: 使用的算法,有{‘auto‘,‘ball_tree‘,‘kd_tree‘,‘brute‘}
  • leaf_size:当使用‘ball_tree‘和‘kd_tree‘时的属性(不懂,先不管他)
  • p:距离选择,p=2时为欧式距离,默认为2
  • metric:距离度量方式,和参数p有什么关系和区别暂时没懂
  • metric_params :距离额外参数,如{‘w‘:weights, ‘p‘:2}
  • n_jobs:使用的CPU数,默认-1即全部使用

在这些参数中,识别数字验证码只需要关注n_neighbors这个就行了,其他都保持默认就行。

方法

  • fit(x, y): 使用样本x和标签y作训练,其实knn的训练只是保存了数据
  • get_params(deep=True): 获取模型的所有参数,deep不知道有什么用
  • kneighbors(test_x=None, n_neighbors=None, return_distance=True): 返回训练样本离样本test_x最近的n_neighbors个样本的值和距离, return_distance为是否返回距离
  • kneighbors_graph(x=None, n_neighbors=None, mode=‘connectivity‘ ): 返回x中k个临近点对应的权重或者距离,根据mode选择‘connectivity‘或者‘distance‘
  • predict(test_x): 根据样本test_x,返回预测y
  • predict_proba(test_x): 返回样本test_x属于每个类别的概率,也就是说返回的是维度为(样本数, k)的二维数组,每行一维数组的所有元素和为1,数组长度为k。
  • score(test_x, y, sample_weight =None): 根据样本test_x预测test_y, 然后对比实际的y返回的正确分数,sample_weight为权重
  • set_params(**args): 重新设置模型参数

当然knn分类器还有RadiusNeighborsClassifier,区别在于,KNeighborsClassifier找距离最近的K个样本,然后投票来决定x的类别,而RadiusNeighborsClassifier则是根据x半径为r的范围内的所有样本投票来决定x的类别。

数据预处理

如果对图片中的数组表示不清楚的可以看另一篇博客

下载验证码

https://download.csdn.net/index.php/rest/tools/validcode/source_ip_validate/10.5711163911089325
这个有个地方需要注意,你直接请求这个接口的话得到的只是个HTML的源码,但是你在浏览器上看的时候又是验证码,F12看的时候也是返回的验证码。但是我用抓包工具抓包发现它实际上发送了两次请求,第一次请求更新cookie,第二次才是真正的返回验证码,链接一样只是cookie不一样。我们只需要保存第二个请求的cookie用requests请求即可。

已经下载的:https://www.lanzous.com/i8enhah

基本操作

im = Image.open(img)
im_gray = im.convert('L') # 灰度图
pix = np.array(im_gray)
# 二值化
threshold = 180 #阈值
pix = (pix < threshold) * 255
# 去边框
new_pix = pix[1:-1,1:-1]

最开始的图片:

处理后的图片

去噪点

做完基本操作之后你会发现,图片会有一些多余的点,这些点可能会影响分类所以需要去除。我使用最简单的方法,只去除孤立点。判断一个黑点九宫格内的黑点的个数,如果少于某个值则将这个黑点置为白点(实际测试这个值只能为2,大于2会删除正常的点)。代码如下:

for i in range(18):
        for j in range(46):
            k = 0
            if new_pix[i, j] == 0:
                k = np.sum(new_pix[i-1:i+2, j-1:j+2] == 0)
                if k < 2:
                    new_pix[i, j] = 255

去完噪点的图片:

切割字符

开始我想以投影法切割,然后发现其实这个的思想就是将图片进行横向压缩,如果哪一列都是白点,则认为这一列就是分割边界。代码如下:

L = []
# 查找分割边界
for i in range(46):
    k = np.sum(new_pix[:,i]==0)
    if k == 0:
        L.append(i)
# 分割图片
for i in range(1, len(L)):
    k = L[i] - L[i-1]
    if k > 2:
        print(k)

        split_pix = new_pix[:,L[i-1]:L[i]+1]
        print(split_pix.shape)
        # 7是根据实际的值判断的,大部分为9,所以需要统一大小
        if k == 7:
            tmp = np.zeros((18, 10))
            tmp += 255
            tmp[:,1:-1] = split_pix
            out = Image.fromarray(tmp).convert('L')
            out.save(f'1/{uuid.uuid4()}.jpg')
        if split_pix.shape != (18,10):
            continue
        out = Image.fromarray(split_pix).convert('L')
        out.save(f'1/{uuid.uuid4()}.jpg')

但是当我将这个方法应用于所有图片时,会出现少部分连在一起的字符。最后我直接选择了指定区间来切割字符,数值为实际测试得到,代码如下:

img1 = new_pix[:, 3:13]
out = Image.fromarray(img1).convert('L')
out.save('1.jpg')
img2 = new_pix[:, 12:22]
out = Image.fromarray(img2).convert('L')
out.save('2.jpg')
img3 = new_pix[:, 21:31]
out = Image.fromarray(img3).convert('L')
out.save('3.jpg')
img4 = new_pix[:, 30:40]
out = Image.fromarray(img4).convert('L')
out.save('4.jpg')

人工标注

这是最烦的一部分了,很浪费时间。我每个字符标注了120张图片,花了一个小时。所以这种快乐我怎么能一个人独享呢。

生成模型

from sklearn import neighbors
import os
from PIL import Image
import numpy as np
import shutil

x = []
y = []
for label in os.listdir('train'):
    for file in os.listdir(f'train/{label}'):
        im = Image.open(f'train/{label}/{file}')
        pix = np.array(im)
        pix = (pix > 180) * 1
        pix = pix.ravel()
        x.append(list(pix))
        y.append(int(label))

train_x = np.array(x)
train_y = np.array(y)

model = neighbors.KNeighborsClassifier(n_neighbors=10)
model.fit(train_x, train_y)

x = []
y = []
for label in os.listdir('test'):
    for file in os.listdir(f'test/{label}'):
        im = Image.open(f'test/{label}/{file}')
        pix = np.array(im)
        pix = (pix > 180) * 1
        pix = pix.ravel()
        x.append(list(pix))
        y.append(int(label))
predict_y = model.predict(np.array(x))
print(predict_y == np.array(y))

这里我使用了所有的像素值作为图片的特征,总共18x10=180个特征值。根据开头的那个博客所说的,我们可以取每行上黑色像素的个数,可以得到10个特征,每列上黑色像素的个数,可以得到6个特征。这样就只有16个特征。在计算时间上会得到一定的改善。不过因为图片较小,数量也不多,实际测试所花的时间差也就几秒差异。而180个特征训练出来的基本100%正确率,16个特征则会出现个别判断出错的情况不过正确率也有98%以上了。当然在实际应用中肯定选择16个特征,这点错误率是可以接受的。以下是16个特征的代码:

from sklearn import neighbors
import os
from PIL import Image
import numpy as np

x = []
y = []
for label in os.listdir('train'):
    for file in os.listdir(f'train/{label}'):
        x_ = []
        im = Image.open(f'train/{label}/{file}')
        pix = np.array(im)
        pix = (pix > 180) * 1
        for i in range(18):
            x_.append(np.sum(pix[i] == 0))
        for j in range(10):
            x_.append(np.sum(pix[:,j] == 0))
        x.append(x_)
        y.append(int(label))

train_x = np.array(x)
train_y = np.array(y)

model = neighbors.KNeighborsClassifier(n_neighbors=10)

model.fit(train_x, train_y)
test_x = []
test_y = []
for label in os.listdir('test'):
    for file in os.listdir(f'test/{label}'):
        x_ = []
        im = Image.open(f'test/{label}/{file}')
        pix = np.array(im)
        pix = (pix > 180) * 1
        for i in range(18):
            x_.append(np.sum(pix[i] == 0))
        for j in range(10):
            x_.append(np.sum(pix[:,j] == 0))
        test_x.append(x_)
        test_y.append(int(label))
predict_y = model.predict(x)
print(predict_y == test_y)

思考

我一开始每个字符标注了120个样本,那么如果减少样本数,会不会影响正确率,减少到多少才不会影响?

我们看一下随着样本数的增大,score的变化(左边数字表示每个字符的样本数,右边表示正确率):
1 0.07086614173228346
2 0.4015748031496063
3 0.6850393700787402
4 0.8031496062992126
5 0.8582677165354331
6 1.0
7 1.0
8 1.0
9 1.0

什么?也就是说只要每个类别6个样本就可以保证100%的正确率,那我这一个小时不是白花了。。。

我们在看一下KNN的k对正确率的影响:
1 1.0
2 1.0
3 1.0
4 1.0
5 1.0
6 1.0
7 1.0
8 1.0
9 1.0

额,好像k选什么一点都不重要。这是因为样本类别太少,特征很明显导致的。当然这种验证码的识别只是练习,而KNN也仅仅能用于简单的验证码,真正复杂的验证码还是需要CNN来识别。

这是已标注的数据:https://www.lanzous.com/i8epywd

最后,我正在学习一些机器学习的算法,对于一些我需要记录的内容我都会分享到博客和微信公众号(python成长路),欢迎关注。平时的话一般分享一些爬虫或者Python的内容。

原文地址:https://www.cnblogs.com/kanadeblisst/p/12143974.html

时间: 2024-08-07 09:58:07

knn识别简单验证码的相关文章

使用pytesseract识别简单验证码

from PIL import Image import pytesseract from pytesseract import * rep={'O':'0', #替换列表 'I':'1','L':'1', 'Z':'2', 'S':'8' }; def initTable(threshold=140): # 二值化函数 table = [] for i in range(256): if i < threshold: table.append(0) else: table.append(1)

C#简单验证码码识别

写在最前 最近做一个小玩意需要识别验证码,之前从来没接触过验证码识别这块,这可难到了我.所以,只有三番五次的麻烦度娘帮我找找验证码识别这块的资料.所幸,许多前辈分享的博文帮到了我.最终,完美的把问题解决. 我要识别的验证码属于非常简单的一种,如下图: 1.图片灰度化(把彩色的验证码图片转换成灰色图片) for(int i = 0; i < bmp.Width; i++) { for(int j = 0; j < bmp.Height; j++) { Color color = bmp.GetP

简单验证码的识别

验证码图片均取自于国内某知名信息安全网站,通过图像处理.模板对比识别等步骤,实现了该类简单验证码图片的识别功能.同时对程序实现了可视化界面,并集成了(验证码)图片下载.(灰度值)门限手动调节等扩展功能.代码存在github,传送门请戳我. 一.程序内容及原理 本程序以Python实现,主要借助了PIL(Python Image Library,实现读取图片.读取灰度值等图像处理相关功能)及tkinter(实现界面设计相关功能)两个库.图像处理及识别的主程序的总体流程如下:导入(读取)验证码图片,

Python验证码识别--利用pytesser识别简单图形验证码

一.探讨 识别图形验证码可以说是做爬虫的必修课,涉及到计算机图形学,机器学习,机器视觉,人工智能等等高深领域…… 简单地说,计算机图形学的主要研究内容就是研究如何在计算机中表示图形.以及利用计算机进行图形的计算.处理和显示的相关原理与算法.图形通常由点.线.面.体等几何元素和灰度.色彩.线型.线宽等非几何属性组成.计算机涉及到的几何图形处理一般有 2维到n维图形处理,边界区分,面积计算,体积计算,扭曲变形校正.对于颜色则有色彩空间的计算与转换,图形上色,阴影,色差处理等等. 在破解验证码中需要用

验证码识别与生成类API调用的代码示例合集:六位图片验证码生成、四位图片验证码生成、简单验证码识别等

以下示例代码适用于 www.apishop.net 网站下的API,使用本文提及的接口调用代码示例前,您需要先申请相应的API服务. 六位图片验证码生成:包括纯数字.小写字母.大写字母.大小写混合.数字+小写.数字+大写.数字+大小写等情况. 四位图片验证码生成:包括纯数字.小写字母.大写字母.大小写混合.数字+小写.数字+大写.数字+大小写等情况. 简单验证码识别:验证码类型 : 数字+字母, 纯英文, 纯数字,计算题 英数_验证码识别:纯数字,纯英文,数字+英文 中英数_验证码识别:英文.数

机器学习(1) - TensorflowSharp 简单使用与KNN识别MNIST流程

机器学习是时下非常流行的话题,而Tensorflow是机器学习中最有名的工具包.TensorflowSharp是Tensorflow的C#语言表述.本文会对TensorflowSharp的使用进行一个简单的介绍. 本文会先介绍Tensorflow的一些基本概念,然后实现一些基本操作例如数字相加等运算.然后,实现求两个点(x1,y1)和(x2,y2)的距离.最后,通过这些前置基础和一些C#代码,实现使用KNN方法识别MNIST手写数字集合(前半部分).阅读本文绝对不需要任何机器学习基础,因为我现在

Python——pytessercat识别简单的验证码

什么是验证码 验证码(CAPTCHA)是“Completely Automated Public Turing test to tell Computersand Humans Apart” (全自动区分计算机和人类的图灵测试)的缩写, 是一种区分用户是计算机还是人的公共全自动程序.可以防止:恶意破解密码.刷票.论坛灌水, 有效防止某个黑客对某一个特定注册用户用特定程序暴力破解方式进行不断的登陆尝试. 这个问题可以由计算机生成并评判,但是必须只有人类才能解答.由于计算机无法解答CAPTCHA的问

Python验证码识别:利用pytesser识别简单图形验证码

一.探讨 识别图形验证码可以说是做爬虫的必修课,涉及到计算机图形学,机器学习,机器视觉,人工智能等等高深领域--    简单地说,计算机图形学的主要研究内容就是研究如何在计算机中表示图形.以及利用计算机进行图形的计算.处理和显示的相关原理与算法.图形通常由点.线.面.体等几何元素和灰度.色彩.线型.线宽等非几何属性组成.计算机涉及到的几何图形处理一般有 2维到n维图形处理,边界区分,面积计算,体积计算,扭曲变形校正.对于颜色则有色彩空间的计算与转换,图形上色,阴影,色差处理等等. 在破解验证码中

python 验证码识别示例(四) 简单验证码识别

今天介绍一个简单验证的识别. 主要是标准的格式,没有扭曲和变现.就用 pytesseract 去识别一下. 验证码地址:http://wsxf.mca.gov.cn/zfp/Random.cmd?d=1565452532947 需要识别的验证码是: 识别结果是: 识别率百分之八十.10个有两个错误. 识别代码: #coding:utf-8 from common.contest import * from PIL import Image import pytesseract def recog