[ML]keras的常用层

Conv2D
filter 滤波器,用n滤波器扫描同一张图片,每个滤波器总结出一个feature。
每个滤波器会生成一张图片,表示32个不同特征图片。
kernel_size 卷积核的尺寸
strides 卷积核的步长,分为行和列方向
padding valid,same,full

MaxPooling2D
pool_size 池化核尺寸
strides 池化核移动步长
padding valid,same,full

Activation
softmax,softplus,softsign,relu,tanh,sigmoid,hard_sigmoid,linear

Flatten层

Dense层全链接层

Sequential模型的fit
verbose 0不在标准输出日志,1输出进度条,2每个epoch输出一行纪录
validation_split 0-1切分一定比例做验证数据集
validation_data 验证集合

Sequentail模型的evaluate
evalute(self,x,y,batch_size,verbose=1,sample_weight=None)

循环神经网络

GRU,SimpleRNN,lstm
input_dim 输入维数
weights 初始化权重
return_sequences 默认False,控制返回类型,若为true则返回整个序列,否则返回序列最后一个输出。
go_backwards 默认false,true表示逆向处理序列
stateful 默认false,true则一个batch下表为i的样本最终状态将会用做下一个batch同样下表的样本初始状态

dropout

unroll 默认false,true跟展开数据有关

时间: 2024-10-28 20:50:08

[ML]keras的常用层的相关文章

Keras网络层之常用层Core

常用层 常用层对应于core模块,core内部定义了一系列常用的网络层,包括全连接.激活层等 Dense层 keras.layers.core.Dense(units, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=None, activity_regularizer=N

17、Cocos2dx 3.0游戏开发找小三之内置的常用层:三剑客LayerColor、LayerGradient、Menu

重开发者的劳动成果,转载的时候请务必注明出处:http://blog.csdn.net/haomengzhu/article/details/30477587 为了方便游戏开发者,Cocos2d-x 内置了 3 种特殊的 Layer: 具体如下所示: LayerColor:一个单纯的实心色块. LayerGradient:一个色块,但可以设置两种颜色的渐变效果. Menu:十分常用的游戏菜单. LayerColor 与 与 LayerGradient 这两个层十分简单,都仅仅包含一个色块. 不同

Cocos2d-x内置的常用层

为了方便游戏开发者,Cocos2d-x内置了3种特殊的CCLayer,具体如下所示. CCLayerColor:一个单纯的实心色块. CCLayerGradient:一个色块,但可以设置两种颜色的渐变效果. CCMenu:十分常用的游戏菜单 CCLayerColor与CCLayerGradient 这两个层十分简单,都仅仅包含一个色块.不同的是,前者创建的是一个实色色块,而后者创建的是一个渐变色块.图3-7 展示了 Cocos2d-x 测试样例中 CCLayerColor 与 CCLayerGr

转 Caffe学习系列(5):其它常用层及参数

本文讲解一些其它的常用层,包括:softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层及其它们的参数配置. 1.softmax-loss softmax-loss层和softmax层计算大致是相同的.softmax是一个分类器,计算的是类别的概率(Likelihood),是Logistic Regression 的一种推广.Logistic Regression 只能用于二分类,而softmax可以用于多分类. softmax与softm

【转】Caffe初试(七)其它常用层及参数

本文讲解一些其它的常用层,包括:softmax-loss层,Inner Product层,accuracy层,reshape层和dropout层及它们的参数配置. 1.softmax-loss softmax-loss层和softmax层计算大致是相同的.softmax是一个分类器,计算的是类别的概率(Likelihood),是Logistic Regression的一种推广. Logistic Regression只能用于二分类,而softmax可以用于多分类. softmax与softmax

Caffe学习系列(5):其它常用层及参数

本文讲解一些其它的常用层,包括:softmax_loss层,Inner Product层,accuracy层,reshape层和dropout层及其它们的参数配置. 1.softmax-loss softmax-loss层和softmax层计算大致是相同的.softmax是一个分类器,计算的是类别的概率(Likelihood),是Logistic Regression 的一种推广.Logistic Regression 只能用于二分类,而softmax可以用于多分类. softmax与softm

Keras一些常用的API总结

使用了一段时间的tensorflow,并且花费了比较大的精力学习了<实战google深度学习框架>这本书,发现纯粹使用tensorflow是比较繁琐的,所以抽时间学一下keras的内容,以后使用tensorflow和keras混编的方式做实验,在易用性和灵活性两方面取得一些折中,学习了tensorflow和基础的机器学习知识后,熟悉keras的难度并非很大. # Dense表示全连接层,unit是神经元数目,一般来说仅对参数矩阵进行正则化,按照机器学习的传统,bias是不惩罚的,另外,此处的a

Keras的TimeDistributed层

Keras的TimeDistributed层主要用途是在时间维度上进行全连接. 比如Faster RCNN,1张图生成了16个ROI,需要对每一个ROI进行分类和回归,ROI的维度是7×7×512,长度和宽度都是7,512个通道,16个ROI的的维度是16×7×7×512,需要得到16个分类和回归,这个时候就可以使用TimeDistributed层了.一次性输入16×7×7×512,进行全连接,相当于16个时间切片,对每个7×7×512的切片分别进行全连接(Dense),最后就得到16个分类和回

[ML]keras和tensorflow实现同样的模型

import tensorflow as tf from input_data import Data import matplotlib.pyplot as plt import os data=Data("./data/") X=tf.placeholder(tf.float32,[None,40,40,3]) y=tf.placeholder(tf.float32,[None,62]) keep_prob=tf.placeholder(tf.float32) conv1_1=tf