一次简简单单的实验课的内容而已。
首先把给出的样本素材放缩的32*32的大小,这部分可以用Python的批处理和opencv中的放缩函数resize()来做,在此我就不列出代码了。
列举出一部分放缩好的图片。
然后在利用keras简历卷积神经网络的模型,在做此实验之前,电脑要配置好Python+Theano+Keras的环境。
#生成一个model def __CNN__(testdata,testlabel,traindata,trainlabel): model = Sequential() #第一个卷积层,4个卷积核,每个卷积核大小5*5。1表示输入的图片的通道,灰度图为1通道。 model.add(Convolution2D(20 , 5 , 5, border_mode='valid',input_shape=(1,32,32))) model.add(Activation('sigmoid')) model.add(MaxPooling2D(pool_size=(2, 2))) #第二个卷积层,30个卷积核,每个卷积核大小5*5。 #采用maxpooling,poolsize为(2,2) model.add(Convolution2D(30 , 5 , 5, border_mode='valid')) model.add(Activation('sigmoid')) model.add(MaxPooling2D(pool_size=(2, 2))) #第三个卷积层,16个卷积核,每个卷积核大小3*3 #激活函数用tanh #采用maxpooling,poolsize为(2,2) #model.add(Convolution2D(16 , 3 , 3, border_mode='valid')) #model.add(Activation('tanh')) #model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Flatten()) model.add(Dense(500, init='normal')) model.add(Activation('sigmoid')) #Softmax分类,输出是4类别 model.add(Dense(4, init='normal')) model.add(Activation('softmax'))
CNN调整参数是一个很麻烦的事情,上面各个层的参数和层数是我参考LENET-5然后自己调试出来的。我本来我没打算用keras做这个,是在caffe上做的,经过多次调整卷积核大小,模型层数,输出神经元个数等等。最后在caffe上跑出来的结果是98%也还不错。在keras上的效果更加理想。
Keras做卷积神经网络的另一个部分就是如何把图片样本变成合格的样本供其训练,具体说来就是分为两个列XY,其中X列是一个四维数组X(x1,x2,x3,x4).x1表示的是样本的数目;x2,表示图片的通道值,是RGB还是灰度图;x3,x4表示图片像素点的矩阵,一般为统一大小(这就是前面为什么要划分成32*32的原因,开心的话划分成64*64也行)。
Y列标记的就是和X列对应的图片的标记。划分的函数代码如下:
#统计样本的数目 def __getnum__(path): fm=os.listdir(path) i=0 for f in fm: ff= os.listdir(path+f+'/') for n in ff: i+=1 return i #生成X,Y列 def __data_label__(path,count): data = np.empty((count,1,32,32),dtype="float32") label = np.empty((count,),dtype="uint8") i=0; filename= os.listdir(path) for ff in filename : fi=os.listdir(path+ff+'/') for f in fi: img = cv2.imread(path+ff+'/'+f,0) arr = np.asarray(img,dtype="float32") data[i,:,:,:] = arr label[i]=int(ff) i+=1 return data,label
代码写好,各个参数调整好以后,在虚拟机或者直接调用终端运行程序,便可以得到训练的结果的啦。
(依我看,就速度方面而言,keras远胜于caffe。准确率也挺高的。我在cafe上调了无数的参数最后准确率也就98%最多了,然而相同的模型放在keras下就只错几个或者根本不错。究其原因,我还不知道,还要继续努力学习呀QAQ)
下面是这次实验的源代码:
# coding=utf-8 import cv2 import os import numpy as np #导入各种用到的模块组件 #from keras.preprocessing.image import ImageDataGenerator from keras.models import Sequential from keras.layers.core import Dense, Dropout, Activation, Flatten from keras.layers.advanced_activations import PReLU from keras.layers.convolutional import Convolution2D, MaxPooling2D, ZeroPadding2D from keras.optimizers import SGD, Adadelta, Adagrad from keras.utils import np_utils, generic_utils import numpy as np from PIL import Image from keras import backend as k #统计样本的数目 def __getnum__(path): fm=os.listdir(path) i=0 for f in fm: ff= os.listdir(path+f+'/') for n in ff: i+=1 return i #生成X,Y列 def __data_label__(path,count): data = np.empty((count,1,32,32),dtype="float32") label = np.empty((count,),dtype="uint8") i=0; filename= os.listdir(path) for ff in filename : fi=os.listdir(path+ff+'/') for f in fi: img = cv2.imread(path+ff+'/'+f,0) arr = np.asarray(img,dtype="float32") data[i,:,:,:] = arr label[i]=int(ff) i+=1 return data,label ############### #开始建立CNN模型 ############### #生成一个model def __CNN__(testdata,testlabel,traindata,trainlabel): model = Sequential() #第一个卷积层,4个卷积核,每个卷积核大小5*5。1表示输入的图片的通道,灰度图为1通道。 model.add(Convolution2D(20 , 5 , 5, border_mode='valid',input_shape=(1,32,32))) model.add(Activation('sigmoid')) model.add(MaxPooling2D(pool_size=(2, 2))) #第二个卷积层,30个卷积核,每个卷积核大小5*5。 #采用maxpooling,poolsize为(2,2) model.add(Convolution2D(30 , 5 , 5, border_mode='valid')) model.add(Activation('sigmoid')) model.add(MaxPooling2D(pool_size=(2, 2))) #第三个卷积层,16个卷积核,每个卷积核大小3*3 #激活函数用tanh #采用maxpooling,poolsize为(2,2) #model.add(Convolution2D(16 , 3 , 3, border_mode='valid')) #model.add(Activation('tanh')) #model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Flatten()) model.add(Dense(500, init='normal')) model.add(Activation('sigmoid')) #Softmax分类,输出是4类别 model.add(Dense(4, init='normal')) model.add(Activation('softmax')) ############# #开始训练模型 ############## #使用SGD + momentum冲量 sgd = SGD(lr=0.05, decay=1e-6, momentum=0.9, nesterov=True) #model.compile里的参数loss就是损失函数(目标函数) model.compile(loss='binary_crossentropy', optimizer=sgd,metrics=['accuracy']) #开始训练, show_accuracy在每次迭代后显示正确率 。 batch_size是每次带入训练的样本数目 , nb_epoch 是迭代次数, shuffle 是打乱样本随机。 model.fit(traindata, trainlabel, batch_size=16,nb_epoch=15,shuffle=True,verbose=1,show_accuracy=True,validation_data=(testdata, testlabel)) #设置测试评估参数,用测试集样本 model.evaluate(testdata, testlabel, batch_size=16,verbose=1,show_accuracy=True) ############ #主模块 ############ trainpath = '/home/emmons/carband_resize/train/' testpath = '/home/emmons/carband_resize/test/' testcount=__getnum__(testpath) traincount=__getnum__(trainpath) testdata,testlabel= __data_label__(testpath, testcount) traindata,trainlabel= __data_label__(trainpath, traincount) #label为0~3共4个类别,keras要求格式为binary class matrices,转化一下,直接调用keras提供的这个函数 testlabel = np_utils.to_categorical(testlabel, 4) trainlabel = np_utils.to_categorical(trainlabel, 4) __CNN__(testdata, testlabel, traindata, trainlabel)
时间: 2024-10-05 16:54:24