手写神经网络Python深度学习

import numpy
import scipy.special
import matplotlib.pyplot as plt
import scipy.misc
import glob
import imageio
import scipy.ndimage

class neuralNetWork:
  def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate):
    self.inodes = inputnodes
    self.hnodes = hiddennodes
    self.onodes = outputnodes

    self.wih = numpy.random.normal(0.0,pow(self.inodes, -0.5),(self.hnodes,self.inodes))
    self.who = numpy.random.normal(0.0,pow(self.hnodes, -0.5),(self.onodes,self.hnodes))

    self.lr = learningrate

    self.activation_function = lambda x: scipy.special.expit(x) # 激活函数
    self.inverse_activation_function = lambda x: scipy.special.logit(x) # 反向查询log激活函数

  def train(self,inputs_list,targets_list):
    inputs = numpy.array(inputs_list,ndmin=2).T
    targets = numpy.array(targets_list,ndmin=2).T

    hidden_inputs = numpy.dot(self.wih,inputs)
    hidden_outputs = self.activation_function(hidden_inputs)

    final_inputs = numpy.dot(self.who,hidden_outputs)
    final_outputs = self.activation_function(final_inputs)

    output_errors = targets - final_outputs
    hidden_errors = numpy.dot(self.who.T,output_errors)

    self.who += self.lr * numpy.dot((output_errors * final_outputs * (1.0 - final_outputs)),numpy.transpose(hidden_outputs))
    self.wih += self.lr * numpy.dot((hidden_errors * hidden_outputs * (1.0 - hidden_outputs)),numpy.transpose(inputs))

  def query(self,inputs_list):
    inputs = numpy.array(inputs_list,ndmin=2).T

    hidden_inputs = numpy.dot(self.wih,inputs)
    hidden_outputs = self.activation_function(hidden_inputs)
    final_inputs = numpy.dot(self.who,hidden_outputs)
    final_outputs = self.activation_function(final_inputs)

    return final_outputs
  def backquery(self, targets_list):
    final_outputs = numpy.array(targets_list, ndmin=2).T

    final_inputs = self.inverse_activation_function(final_outputs)
    hidden_outputs = numpy.dot(self.who.T, final_inputs)

    hidden_outputs -= numpy.min(hidden_outputs)
    hidden_outputs /= numpy.max(hidden_outputs)
    hidden_outputs *= 0.98
    hidden_outputs += 0.01

    hidden_inputs = self.inverse_activation_function(hidden_outputs)
    inputs = numpy.dot(self.wih.T, hidden_inputs)
    inputs -= numpy.min(inputs)
    inputs /= numpy.max(inputs)
    inputs *= 0.98
    inputs += 0.01

    return inputs

input_nodes = 784
hidden_nodes = 200
output_nodes = 10
learing_rate = 0.1
n = neuralNetWork(input_nodes,hidden_nodes,output_nodes,learing_rate)

train_data_file = open(‘mnist_train.csv‘, ‘r‘)
train_data_list = train_data_file.readlines()
train_data_file.close()

epochs = 5
for e in range(epochs):
  for record in train_data_list:
    all_values = record.split(‘,‘)
    #image_array = numpy.asfarray(all_values[1:]).reshape((28,28))
    #plt.imshow(image_array,cmap=‘Greys‘,interpolation=‘None‘)
    #plt.show()
    inputs = (numpy.asfarray(all_values[1:])/255.0 *0.99)+0.01
    targets = numpy.zeros(output_nodes) + 0.01
    targets[int(all_values[0])] = 0.99
    n.train(inputs,targets)

    #手写字体倾斜10度作为测试数据
    inputs_plusx_img = scipy.ndimage.interpolation.rotate(inputs.reshape(28,28), 10, cval=0.01, order=1, reshape=False)
    n.train(inputs_plusx_img.reshape(784), targets)
    inputs_minusx_img = scipy.ndimage.interpolation.rotate(inputs.reshape(28,28), -10, cval=0.01, order=1, reshape=False)
    n.train(inputs_minusx_img.reshape(784), targets)

test_data_file = open(‘mnist_test.csv‘, ‘r‘)
test_data_list = test_data_file.readlines()
test_data_file.close()
# all_values = test_data_list[0].split(‘,‘)

# # image_array = numpy.asfarray(all_values[1:]).reshape((28,28))
# # plt.imshow(image_array,cmap=‘Greys‘,interpolation=‘None‘)
# # plt.show()

# output = n.query((numpy.asfarray(all_values[1:])/ 255.0 * 0.99)+0.01)

scorecard = []
for record in test_data_list:
  all_values = record.split(‘,‘)
  correct_label = int(all_values[0])
  #print(correct_label,‘correct_label‘)
  inputs = (numpy.asfarray(all_values[1:])/255.0 *0.99)+0.01
  outputs = n.query(inputs)
  label = numpy.argmax(outputs)
  #print(label,‘network answer‘)
  if (label == correct_label):
    scorecard.append(1)
  else:
    scorecard.append(0)
scorecard_array = numpy.asarray(scorecard)
print("performance = ",scorecard_array.sum() / scorecard_array.size)

# 识别自己手写字
our_own_dataset = []

for image_file_name in glob.glob(‘2828_my_own_?.png‘):
  label = int(image_file_name[-5:-4])

  print ("loading ... ", image_file_name)
  img_array = imageio.imread(image_file_name, as_gray=True)
  img_data  = 255.0 - img_array.reshape(784)

  img_data = (img_data / 255.0 * 0.99) + 0.01
  print(numpy.min(img_data))
  print(numpy.max(img_data))

  record = numpy.append(label,img_data)
  our_own_dataset.append(record)

item = 2
plt.imshow(our_own_dataset[item][1:].reshape(28,28), cmap=‘Greys‘, interpolation=‘None‘)
correct_label = our_own_dataset[item][0]
inputs = our_own_dataset[item][1:]

outputs = n.query(inputs)
print (outputs)

label = numpy.argmax(outputs)
print("network says ", label)
if (label == correct_label):
    print ("match!")
else:
    print ("no match!")

# 反向生成图像
label = 0
targets = numpy.zeros(output_nodes) + 0.01
targets[label] = 0.99
print(targets)

image_data = n.backquery(targets)

plt.imshow(image_data.reshape(28,28), cmap=‘Greys‘, interpolation=‘None‘)

原文地址:https://www.cnblogs.com/Erick-L/p/11785905.html

时间: 2024-10-14 10:49:10

手写神经网络Python深度学习的相关文章

神经网络与深度学习(1):神经元和神经网络

本文总结自<Neural Networks and Deep Learning>第1章的部分内容. 目录 感知器 S型神经元 神经网络的架构 用神经网络识别手写数字 迈向深度学习 感知器(Perceptrons) 1. 基本原理 感知器是一种人工神经元. 一个感知器接受几个二进制输入:x1,x2,...,并产一个二进制输出: 数学模型如下: 可以将感知器看作依据权重来作出决定的设备. 2. 感知器和与非门 可以通过上述简单的权重和偏置实现一个与非门. 输入00, (−2)∗0+(−2)∗0+3

从软件工程的角度写机器学习6——深度学习之卷积神经网络(CNN)实现

卷积神经网络(CNN)实现 背景 卷积神经网络广泛用于图像检测,它的实现原理与传统神经网络基本上是一样的,因此将普遍意义的神经网络和卷积神经网络的实现合成一篇. 神经网络实现思路 "扔掉神经元" 尽管所有教程在介绍神经网络时都会把一大堆神经元画出来,并且以输入节点--神经元--输出结点连线,但是,在编程实现时,基于神经元去编程是低效的.典型如这篇经典文章里面的代码: http://blog.csdn.net/zzwu/article/details/575125. 比较合适的方法是将神

(转)神经网络和深度学习简史(第一部分):从感知机到BP算法

深度|神经网络和深度学习简史(第一部分):从感知机到BP算法 2016-01-23 机器之心 来自Andrey Kurenkov 作者:Andrey Kurenkov 机器之心编译出品 参与:chenxiaoqing.范娜Fiona.杨超.微胖.汪汪.赵巍 导读:这是<神经网络和深度学习简史>第一部分.这一部分,我们会介绍1958年感知机神经网络的诞生,70年代人工智能寒冬以及1986年BP算法让神经网络再度流行起来. 深度学习掀起海啸 如今,深度学习浪潮拍打计算机语言的海岸已有好几年,但是,

神经网络和深度学习-学习总结

1. 简介 神经网络和深度学习是由Michael Nielsen所写,其特色是:兼顾理论和实战,是一本供初学者深入理解Deep Learning的好书. 2. 感知器与sigmoid神经元 2.1 感知器(Perceptrons) 感知器工作原理:接收一系列二进制输入,经过特定的规则计算之后,输出一个简单的二进制. 计算规则:通过引入权重(weights)表示每个输入对于输出的重要性,则有 记w?x=∑jwjxj,b=-threshold,则有 其w是权重,b是偏差. 2.2 Sigmoid神经

吴恩达 DeepLearning.ai课程笔记(1-3)神经网络和深度学习 --- 浅层神经网络

以下为在Coursera上吴恩达老师的DeepLearning.ai课程项目中,第一部分<神经网络和深度学习>第二周课程部分关键点的笔记.笔记并不包含全部小视频课程的记录,如需学习笔记中舍弃的内容请至 Coursera 或者 网易云课堂.同时在阅读以下笔记之前,强烈建议先学习吴恩达老师的视频课程. 1. 二分类问题 对于二分类问题,大牛给出了一个小的Notation. 样本:  ,训练样本包含  个: 其中  ,表示样本 包含 个特征:  ,目标值属于0.1分类: 训练数据:  输入神经网络时

《神经网络与深度学习》(四) 受限玻尔兹曼机

转自:http://blog.csdn.net/qiao1245/article/details/50932519 谈到神经网络,就不得不提到最近非常火的深度学习.那么什么是深度学习?它与神经网络的关系是什么?深度学习的基本原理和常用算法是什么?我将在这篇中详细解答. 什么是深度学习 深度学习来源于人工神经网络,它的思想是组合低层次的特征从而构建出更加抽象的深层次特征.深度学习的概念由Hinton等人于2006年提出, 它是一个新的机器学习领域,通过更"深"层次的训练,它可以更加良好的

好书推荐计划:Keras之父作品《Python 深度学习》

大家好,我禅师的助理兼人工智能排版住手助手条子.可能非常多人都不知道我.由于我真的难得露面一次,天天给禅师做底层工作. wx_fmt=jpeg" alt="640? wx_fmt=jpeg" /> 今天条子最终也熬到这一天! 最终也有机会来为大家写文章了! 激动的我啊.都忘了9月17号中午和禅师在我厂门口兰州料理吃饭.禅师要了一碗牛拉+一瓶可乐+一碟凉菜,总共30元.让我结账至今还没还钱的事儿了.真的,激动的我一点儿都想不起来了. 国庆长假就要開始了,作为人工智能头条的

【吴恩达课后测验】Course 1 - 神经网络和深度学习 - 第一周测验【中英】

[吴恩达课后测验]Course 1 - 神经网络和深度学习 - 第一周测验[中英] 第一周测验 - 深度学习简介 和"AI是新电力"相类似的说法是什么? [ ?]AI为我们的家庭和办公室的个人设备供电,类似于电力. [ ?]通过"智能电网",AI提供新的电能. [?]AI在计算机上运行,??并由电力驱动,但是它正在让以前的计算机不能做的事情变为可能. [★]就像100年前产生电能一样,AI正在改变很多的行业. 请注意: 吴恩达在视频中表达了同样的观点. 哪些是深度学

Python深度学习(高清版)PDF

Python深度学习(高清版)PDF百度网盘链接:https://pan.baidu.com/s/1WOAfraS5Y56247A8oDUPgg 提取码:pfo3 复制这段内容后打开百度网盘手机App,操作更方便哦内容简介 · · · · · · 本书由Keras之父.现任Google人工智能研究员的弗朗索瓦?肖莱(Fran?ois Chollet)执笔,详尽介绍了用Python和Keras进行深度学习的探索实践,涉及计算机视觉.自然语言处理.生成式模型等应用.书中包含30多个代码示例,步骤讲解