第十四节 验证码识别案列

import tensorflow as tf

FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_string("captcha_dir", "./tfrecords", "验证码数据路径")
tf.app.flags.DEFINE_integer("batch_size", 100, "每批次训练的样本数")
tf.app.flags.DEFINE_integer("label_num", 4, "每个样本目标值数量")
tf.app.flags.DEFINE_integer("letter_num", 26, "每个目标值取的字母的可能性个数")

# 定义一个随机初始化权重函数
def weight_variables(shape):
    w = tf.Variable(tf.random_normal(shape=shape, mean=0.0, stddev=1.0))
    return w

# 定义一个随机初始化偏置函数
def bias_variables(shape):
    b = tf.Variable(tf.constant(0.0, shape=shape))
    return b

def read_and_decode():
    """读取验证码数据"""
    # 1.构建文件独立
    file_queue = tf.train.string_input_producer([FLAGS.captcha_dir])

    # 2.构建阅读器,读取文件内容,默认一个样本
    reader = tf.TFRecordReader()
    key, value = reader.read(file_queue)

    # tfrecords数据需要解析
    features = tf.parse_single_example(value, features={
        "image":tf.FixedLenFeature([], tf.string),
        "label":tf.FixedLenFeature([], tf.string),
    })

    # 解码内容,字符串内容
    # 1.解析图片特征值
    image = tf.decode_raw(features["image"], tf.uint8)
    # 2.解析目标值
    label = tf.decode_raw(features["label"], tf.uint8)

    # 改变形状
    image_reshape = tf.reshape(image, [20, 80, 3])
    label_reshape = tf.reshape(label, [4])

    # 进行批处理
    image_batch, label_batch = tf.train.batch([image_reshape, label_reshape], batch_size=FLAGS.batch_size, num_threads=2, capacity=10)

    return image_batch, label_batch

def fc_model(image):
    """
    进行预测结果
    image [100, 20, 80, 3]
    """
    with tf.variable_scope("model"):
        # 1。随机初始化权重,偏置
        weights = weight_variables([20*80*3, 4*26])
        bias = bias_variables([4*26])

        # 将图片数据转换成二维
        image_reshape = tf.reshape(image, [-1, 20*80*3])

        # 进行全连接层矩阵运算
        y_predict = tf.matmul(tf.cast(image_reshape, tf.float32), weights) + bias

    return y_predict

def captcharec():
    """验证码识别"""
    # 1.读取验证码数据
    image_batch, label_batch = read_and_decode()

    # 2.通过输入图片的特征数据,建立模型,得出预测结果
    # 一层,全连接层进行预测
    # matrix [100, 20*80*3]*[20*80*3, 4*26] + [104] = [100, 4*26]
    y_predict = fc_model(image_batch)

    # 目标值[100, 4]转换成one-hot编码==>[100, 4, 26]
    y_true = tf.one_hot(label_batch, depth=FLAGS.letter_num, on_value=1.0, axis=2)

    # softmax计算,交叉熵损失计算
    with tf.variable_scope("soft_cross"):
        # 求平均交叉熵损失
        loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=tf.reshape(y_true, [FLAGS.batch_size, FLAGS.label_num*FLAGS.letter_num]), logits=y_predict))

    # 梯度下降优化损失
    with tf.variable_scope("optimizer"):
        # 0.1是学习率,minimize表示求最小损失
        train_op = tf.train.GradientDescentOptimizer(0.0001).minimize(loss)

    # 计算准确率,三维比较 y_predict:[100, 4*26]==>[100, 4, 26]
    with tf.variable_scope("acc"):
        equal_list = tf.equal(tf.argmax(y_true, 2), tf.argmax(tf.reshape(y_predict, [FLAGS.batch_size, FLAGS.label_num, FLAGS.letter_num]), 1))
        # equal_list None个样本 [1, 0, 1, 1, 0, 0.....]
        accuracy = tf.reduce_mean(tf.cast(equal_list, tf.float32))

    # 定义初始化变量op
    init_op = tf.global_variables_initializer()
    # 开启会话
    with tf.Session() as sess:
        sess.run(init_op)

        # 定义线程协调器和开启线程
        coord = tf.train.Coordinator()

        # 开启线程读取文件
        threads = tf.train.start_queue_runners(sess, coord=coord)

        # 训练数据
        for i in range(5000):
            sess.run(train_op)
            print("第{}批次的准确率为:{}".format(i, accuracy.eval()))

        # 回收线程
        coord.request_stop()
        coord.join(threads)
    return None

if __name__ == "__nain__":
    captcharec()

原文地址:https://www.cnblogs.com/kogmaw/p/12602477.html

时间: 2024-08-01 00:09:34

第十四节 验证码识别案列的相关文章

第三百三十四节,web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息

第三百三十四节,web爬虫讲解2-Scrapy框架爬虫-Scrapy爬取百度新闻,爬取Ajax动态生成的信息 crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻标题和rul地址 有多网站,当你浏览器访问时看到的信息,在html源文件里却找不到,由得信息还是滚动条滚动到对应的位置后才显示信息,那么这种一般都是 js 的 Ajax 动态请求生成的信息 我们以百度新闻为列: 1.分析网站 首先我们浏览器打开百度新闻,在网页中间部分找一条新闻信息 然后查看源码,看看在源码里是否有

大白话5分钟带你走进人工智能-第十四节过拟合解决手段L1和L2正则

                                                                                                  第十四节过拟合解决手段L1和L2正则 第十三节中,我们讲解了过拟合的情形,也就是过度的去拟合训练集上的结果了,反倒让你的模型太复杂.为了去解决这种现象,我们提出用L1,L2正则去解决这种问题. 怎么把正则应用进去?我们重新审视目标函数,以前我们可以理解目标函数和损失函数是一个东西.而有正则的含义之后,目

centos LNMP第二部分nginx、php配置 第二十四节课

centos  LNMP第二部分nginx.php配置  第二十四节课 上半节课 下半节课 f

第三百六十四节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的mapping映射管理

第三百六十四节,Python分布式爬虫打造搜索引擎Scrapy精讲-elasticsearch(搜索引擎)的mapping映射管理 1.映射(mapping)介绍 映射:创建索引的时候,可以预先定义字段的类型以及相关属性elasticsearch会根据json源数据的基础类型猜测你想要的字段映射,将输入的数据转换成可搜索的索引项,mapping就是我们自己定义的字段数据类型,同时告诉elasticsearch如何索引数据以及是否可以被搜索 作用:会让索引建立的更加细致和完善 类型:静态映射和动态

centos 监控cacti/nagios/zabbix 第三十四节课

centos   监控cacti/nagios/zabbix   第三十四节课 上半节课 下半节课 f

第三百二十四节,web爬虫,scrapy模块介绍与使用

第三百二十四节,web爬虫,scrapy模块介绍与使用 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试. Scrapy 使用了 Twisted异步网络库来处理网络通讯.

centos mysql 优化 第二十四节课

centos mysql  优化  第二十四节课 f

第三百五十四节,Python分布式爬虫打造搜索引擎Scrapy精讲—数据收集(Stats Collection)

第三百五十四节,Python分布式爬虫打造搜索引擎Scrapy精讲-数据收集(Stats Collection) Scrapy提供了方便的收集数据的机制.数据以key/value方式存储,值大多是计数值. 该机制叫做数据收集器(Stats Collector),可以通过 Crawler API 的属性 stats 来使用无论数据收集(stats collection)开启或者关闭,数据收集器永远都是可用的. 因此您可以import进自己的模块并使用其API(增加值或者设置新的状态键(stat k

第二十四节,自定义函数

第二十四节,自定义函数函数是将要实现的功能写在函数里,在要使用此功能的地方调用此函数即可实现功能,这样大大减少编程重复书写同样的代码,在多个要使用同样功能的地方调用函数即可不需要重复写同样的代码函数式编程最重要的是增强代码的重用性和可读性 函数的定义主要有如下要点: def:表示函数的关键字函数名:函数的名称,日后根据函数名调用函数函数体:函数中进行一系列的逻辑计算,如:发送邮件.计算出 [11,22,38,888,2]中的最大数等...参数:为函数体提供数据return:返回值:当函数执行完毕