跟我学算法- tensorflow 卷积神经网络训练验证码

使用captcha.image.Image 生成随机验证码,随机生成的验证码为0到9的数字,验证码有4位数字组成,这是一个自己生成验证码,自己不断训练的模型

使用三层卷积层,三层池化层,二层全连接层来进行组合

第一步:定义生成随机验证码图片

number = [‘0‘,‘1‘,‘2‘,‘3‘,‘4‘,‘5‘,‘6‘,‘7‘,‘8‘,‘9‘]
# alphabet = [‘a‘,‘b‘,‘c‘,‘d‘,‘e‘,‘f‘,‘g‘,‘h‘,‘i‘,‘j‘,‘k‘,‘l‘,‘m‘,‘n‘,‘o‘,‘p‘,‘q‘,‘r‘,‘s‘,‘t‘,‘u‘,‘v‘,‘w‘,‘x‘,‘y‘,‘z‘]
# ALPHABET = [‘A‘,‘B‘,‘C‘,‘D‘,‘E‘,‘F‘,‘G‘,‘H‘,‘I‘,‘J‘,‘K‘,‘L‘,‘M‘,‘N‘,‘O‘,‘P‘,‘Q‘,‘R‘,‘S‘,‘T‘,‘U‘,‘V‘,‘W‘,‘X‘,‘Y‘,‘Z‘]

def random_captcha_text(char_set=number, captha_size=4):
    captha_texts = []
    for i in range(captha_size):
        # 随机抽取数字,添加到列表中
        captha_texts.append(random.choice(char_set))
    return captha_texts

def gen_captcha_text_and_image():
    image = ImageCaptcha()
    captcha_texts = random_captcha_text()
    # 列表转换为字符串
    captcha_texts = ‘‘.join(captcha_texts)
    # 产生图片
    captcha = image.generate(captcha_texts)
    captcha_image = Image.open(captcha)
    captcha_image = np.array(captcha_image)
    # 返回字符串和图片
    return captcha_texts, captcha_image

第二步: 生成训练样本

# 把彩图转换为灰度图
def convert2gray(image):
    if len(image.shape)> 2:
        grey = np.mean(image, -1)
        return grey
    else:
        return image
# 把文本转换为可用的标签维度是40
def text2vec(text):
    text_len = len(text)
    int(text[0])
    if text_len > MAX_CAPTCHA:
        raise ValueError(‘验证码最长4个字符‘)
    vec = np.zeros(MAX_CAPTCHA*CHAR_SET_LEN)
    for index, c in enumerate(text):

        now_index = index * CHAR_SET_LEN + int(c.strip())
        vec[now_index] = 1
    return vec
# 生成训练样本
def get_next_batch(batch_size=128):
    batch_x = np.zeros([batch_size, IMAGE_HEIGHT*IMAGE_WEIGHT])
    batch_y = np.zeros([batch_size, MAX_CAPTCHA*CHAR_SET_LEN])
    # 有时候生成的图像大小不是(60, 160, 3), 重新生成
    def wrap_gen_captcha_text_and_image():
        text, image = gen_captcha_text_and_image()
        while True:
            if image.shape == (60, 160, 3):
                return text, image

    for i in range(batch_size):
        text, image = wrap_gen_captcha_text_and_image()
        image = convert2gray(image)
        # 转换成的一维的灰度图,使得其范围为(0, 1)
        batch_x[i, :] = image.flatten() / 255  # (image.flatten()-128)/128  mean为0
       # 把输入的文本转换为标签类型
        batch_y[i, :] = text2vec(text)

    return batch_x, batch_y

第三步: 定义CNN,这里的CNN为3层卷积,3层池化, 2层全连接

# 定义CNN
def crack_captcha_cnn(w_alpha=0.01, b_alpha=0.1):
    # [-1, IMAGE_HEIGHT, IMAGE_WEIGHT, 1] -1表示batch_size,1表示样本深度,也就是RGB通道的个数
    x = tf.reshape(X, [-1, IMAGE_HEIGHT, IMAGE_WEIGHT, 1])

    # 创建w_c1和b_c1的初始化变量
    w_c1 = tf.Variable(w_alpha*tf.random_normal([3, 3, 1, 32]))
    b_c1 = tf.Variable(b_alpha*tf.random_normal([32]))
    # 进行卷积操作
    conv1 = tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(x, w_c1, strides=(1, 1, 1, 1), padding=‘SAME‘), b_c1))
    # 进行池化操作
    conv1 = tf.nn.max_pool(conv1, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding=‘SAME‘)
    conv1 = tf.nn.dropout(conv1, keep_prob)

    w_c2 = tf.Variable(w_alpha * tf.random_normal([3, 3, 32, 64]))
    b_c2 = tf.Variable(b_alpha * tf.random_normal([64]))
    conv2 = tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(conv1, w_c2, strides=(1, 1, 1, 1), padding=‘SAME‘), b_c2))
    conv2 = tf.nn.max_pool(conv2, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding=‘SAME‘)
    conv2 = tf.nn.dropout(conv2, keep_prob)

    w_c3 = tf.Variable(w_alpha * tf.random_normal([3, 3, 64, 64]))
    b_c3 = tf.Variable(b_alpha * tf.random_normal([64]))
    conv3 = tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(conv2, w_c3, strides=(1, 1, 1, 1), padding=‘SAME‘), b_c3))
    conv3 = tf.nn.max_pool(conv3, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding=‘SAME‘)
    conv3 = tf.nn.dropout(conv3, keep_prob)

    # 第一个全连接层
    #8*20*64表示conv3的维度, 60/2/2/2 = 8 160/2/2/2=20
    w_d = tf.Variable(w_alpha * tf.random_normal([8 * 20 * 64, 1024]))
    b_d = tf.Variable(b_alpha * tf.random_normal([1024]))
    dense = tf.reshape(conv3, [-1, w_d.get_shape().as_list()[0]])
    print(tf.matmul(dense, w_d).shape, b_d.shape)
    dense = tf.nn.relu(tf.add(tf.matmul(dense, w_d), b_d))
    dense = tf.nn.dropout(dense, keep_prob)

    # 第二个全连接层, 不需要激活层
    w_out = tf.Variable(w_alpha * tf.random_normal([1024, MAX_CAPTCHA*CHAR_SET_LEN]))
    b_out = tf.Variable(b_alpha * tf.random_normal([MAX_CAPTCHA*CHAR_SET_LEN]))

    out = tf.add(tf.matmul(dense, w_out), b_out)
    return out

第四步: 定义训练CNN函数

def train_crack_captcha_cnn():
    output = crack_captcha_cnn()
    loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=output, labels=Y))
    optimizer = tf.train.AdamOptimizer(learning_rate=0.001).minimize(loss)
    predict = tf.reshape(output, [-1, MAX_CAPTCHA, CHAR_SET_LEN])
    max_idx_p = tf.argmax(predict, 2)
    max_idx_l = tf.argmax(tf.reshape(Y, [-1, MAX_CAPTCHA, CHAR_SET_LEN]), 2)
    correct_pred = tf.equal(max_idx_p, max_idx_l)
    accr = tf.reduce_mean(tf.cast(correct_pred, tf.float32))

    saver = tf.train.Saver()
    with tf.Session() as sess:
        #变量初始化
        sess.run(tf.global_variables_initializer())
        step = 0
        # 让它一直都训练直到精度大于0.5
        while True:
            # 生成64个样本
            batch_x, batch_y = get_next_batch(batch_size=64)
            __, _loss = sess.run([optimizer, loss], feed_dict={X:batch_x, Y:batch_y, keep_prob: 0.75})
            print(step, _loss)

            # 每一百次循环计算一次返回值
            if step%100 == 0 :
                batch_text_x, batch_text_y = get_next_batch(batch_size=128)
                acc = sess.run(accr, feed_dict={X:batch_text_x, Y:batch_text_y, keep_prob:1.})
                print(acc)
                # 如果准确率大于0.5就保存模型
                if acc > 0.5:
                    saver.save(sess, ‘.model/crack_captcha/model‘)
                    break
            step += 1

第五步: 定义训练好后的预测模型

# 用于训练好后的模型进行预测
def crack_captcha(captcha_image):

    output = crack_captcha_cnn()
    # 初始化保存数据
    saver = tf.train.Saver()
    with tf.Session() as sess:
        # 重新加载sess
        saver.restore(sess, ‘.model/crack_captcha/model‘)

        predict = tf.reshape(output, [-1, MAX_CAPTCHA, CHAR_SET_LEN], 2)
        # 获得CNN之后的结果
        text_list = sess.run(predict, feed_dict={X:[captcha_image], keep_prob:1})
        # 让输出结果变成一个列表
        text = text_list[0].tolist()
        return text

第六步:主要函数用来进行训练,或者测试

if __name__ == ‘__main__‘:
    #获得文本和图片
    train = 0
    # 当train=0时进行训练
    if train==0:
        number = [‘0‘, ‘1‘, ‘2‘, ‘3‘, ‘4‘, ‘5‘, ‘6‘, ‘7‘, ‘8‘, ‘9‘]
        text, image = gen_captcha_text_and_image()

        IMAGE_HEIGHT = 60
        IMAGE_WEIGHT = 160
        MAX_CAPTCHA = len(text)
        print(‘验证码文本最长字符数‘, MAX_CAPTCHA)
        char_set = number
        CHAR_SET_LEN = len(char_set)

        X = tf.placeholder(tf.float32, [None, IMAGE_HEIGHT*IMAGE_WEIGHT])
        Y = tf.placeholder(tf.float32, [None, MAX_CAPTCHA*CHAR_SET_LEN])
        keep_prob = tf.placeholder(tf.float32)

        train_crack_captcha_cnn()
    # 当trian=1时进行测试
    elif train == 1:
        text, image = gen_captcha_text_and_image()
        # 将模型转换为灰度图以后再进行测试
        image = convert2gray(image)
        image = image.flatten() / 255
        IMAGE_HEIGHT = 60
        IMAGE_WEIGHT = 160
        MAX_CAPTCHA = len(text)
        print(‘验证码文本最长字符数‘, MAX_CAPTCHA)
        char_set = number
        CHAR_SET_LEN = len(char_set)
        X = tf.placeholder(tf.float32, [None, IMAGE_HEIGHT * IMAGE_WEIGHT])
        Y = tf.placeholder(tf.float32, [None, MAX_CAPTCHA * CHAR_SET_LEN])
        keep_prob = tf.placeholder(tf.float32)
        pred_text = crack_captcha(image)
        print(‘真实值‘, text, ‘测试值‘, pred_text)

原文地址:https://www.cnblogs.com/my-love-is-python/p/9577690.html

时间: 2024-11-01 12:41:30

跟我学算法- tensorflow 卷积神经网络训练验证码的相关文章

Tensorflow卷积神经网络[转]

Tensorflow卷积神经网络 卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络, 在计算机视觉等领域被广泛应用. 本文将简单介绍其原理并分析Tensorflow官方提供的示例. 关于神经网络与误差反向传播的原理可以参考作者的另一篇博文BP神经网络与Python实现. 工作原理 卷积是图像处理中一种基本方法. 卷积核是一个nxn的矩阵通常n取奇数, 这样矩阵就有了中心点和半径的概念. 对图像中每个点取以其为中心的n阶方阵, 将该方阵与卷积核中

吴裕雄 python 神经网络——TensorFlow 使用卷积神经网络训练和预测MNIST手写数据集

import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data #设置输入参数 batch_size = 128 test_size = 256 # 初始化权值与定义网络结构,建构一个3个卷积层和3个池化层,一个全连接层和一个输出层的卷积神经网络 # 首先定义初始化权重函数 def init_weights(shape): return tf.Variabl

AI相关 TensorFlow -卷积神经网络 踩坑日记之一

上次写完粗浅的BP算法 介绍 本来应该继续把 卷积神经网络算法写一下的 但是最近一直在踩 TensorFlow的坑.所以就先跳过算法介绍直接来应用场景,原谅我吧. TensorFlow 介绍 TF是google开源出来的人工智能库,由python语言写的 官网地址:http://www.tensorflow.org/   请用科学上网访问 中文地址:http://www.tensorfly.cn/ 当然还有其他AI库,不过大多数都是由python 写的 .net 的AI库叫 Accord.net

使用CNN(convolutional neural nets)检测脸部关键点教程(三):卷积神经网络训练和数据扩充

第五部分 第二个模型:卷积神经网络 上图演示了卷积操作 LeNet-5式的卷积神经网络,是计算机视觉领域近期取得的巨大突破的核心.卷积层和之前的全连接层不同,采用了一些技巧来避免过多的参数个数,但保持了模型的描述能力.这些技巧是: 1, 局部联结:神经元仅仅联结前一层神经元的一小部分. 2, 权重共享:在卷积层,神经元子集之间的权重是共享的.(这些神经元的形式被称为特征图[feature map]) 3, 池化:对输入进行静态的子采样. 局部性和权重共享的图示 卷积层的单元实际上连接了前一层神经

TensorFlow 卷积神经网络--卷积层

之前我们已经有一个卷积神经网络识别手写数字的代码,执行下来正确率可以达到96%以上. 若是再优化下结构,正确率还可以进一步提升1~2个百分点. 卷积神经网络在机器学习领域有着广泛的应用.现在我们就来深入了解下卷积神经网络的细节. 卷积层,听名字就知道,这是卷积神经网络中的重要部分. 这个部分被称为过滤器(filter)或者内核(kernel) Tensorflow的官方文档中称这个部分为过滤器(filter). 在一个卷积层总,过滤器所处理的节点矩阵的长和宽都是由人工指定的,这个节点矩阵的尺寸也

深度学习原理与框架-Tensorflow卷积神经网络-神经网络mnist分类

使用tensorflow构造神经网络用来进行mnist数据集的分类 相比与上一节讲到的逻辑回归,神经网络比逻辑回归多了隐藏层,同时在每一个线性变化后添加了relu作为激活函数, 神经网络使用的损失值为softmax概率损失值,即为交叉熵损失值 代码:使用的是mnist数据集作为分类的测试数据,数据的维度为50000*784 第一步:载入mnist数据集 第二步:超参数的设置,输入图片的大小,分类的类别数,迭代的次数,每一个batch的大小 第三步:使用tf.placeholder() 进行输入数

tensorflow 卷积神经网络预测手写 数字

# coding=utf8 import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_datafrom PIL import Image def imageprepare(file_name): """ This function returns the pixel values. The imput is a png file location. ""&quo

跟我学算法- tensorflow 实现RNN操作

对一张图片实现rnn操作,主要是通过先得到一个整体,然后进行切分,得到的最后input结果输出*_w['out'] + _b['out']  = 最终输出结果 第一步: 数据载入 import tensorflow as tf from tensorflow.contrib import rnn from tensorflow.examples.tutorials.mnist import input_data import numpy as np import matplotlib.pyplo

奉献pytorch 搭建 CNN 卷积神经网络训练图像识别的模型,配合numpy 和matplotlib 一起使用调用 cuda GPU进行加速训练

1.Torch构建简单的模型 # coding:utf-8 import torch class Net(torch.nn.Module): def __init__(self,img_rgb=3,img_size=32,img_class=13): super(Net, self).__init__() self.conv1 = torch.nn.Sequential( torch.nn.Conv2d(in_channels=img_rgb, out_channels=img_size, ke