21天学习caffe(二)

本文大致记录使用caffe的一次完整流程

Process

1 下载mnist数据集(数据量很小),解压放在data/mnist文件夹中;
2 运行create_mnist.sh,生成lmdb格式的数据(data+label);
$CAFFEROOT/build/tools/convert_imageset 可以用来做把原始图片转换为LevelDB或者 Lmdb格式。

3 运行build/tools/caffe train --solver=examples/mnist/lenet_solver.prototxt

usage: caffe <command> <args>
commands:
train train or finetune a model
test score a model
device_query show GPU diagnostic information
time benchmark model execution time
caffe的args采用第三方库gflags解析,具体可以在tools/caffe.cpp中找到定义。
使用方法
--solver=examples/mnist/lenet_solver.prototxt

-solver (The solver definition protocol buffer text file.)
type: string
DEFINE_string(solver, "",
"The solver definition protocol buffer text file.");

#note#
A 需要在caffe的根目录下运行example中的脚本,因为脚本的相对路径都是相当于caffe根目录写的;
B 运行shell脚本的时候,可能会出一些小问题,阅读脚本源码很容易排除;
C 报错: Cannot use GPU in CPU-only Caffe: check mode.
修改定义训练超参数的prototxt(lenet_solver.prototxt)中的训练模式
# solver mode: CPU or GPU
solver_mode: CPU;
D 关于第三方库 gflags
API
//显示信息
gflags::SetUsageMessage("information");

//instance
//定义可在命令行调用时出现的变量
DEFINE_bool(isvip, false, "If Is VIP");
DEFINE_string(ip, "127.0.0.1", "connect ip");
DEFINE_int32(port, 80, "listen port");
//main函数接受参数之后,启动库的解析功能
google::ParseCommandLineFlags(&argc, &argv, true);
//读取相应的变量
std::cout<<"ip:"<<FLAGS_ip<<std::endl;
std::cout<<"port:"<<FLAGS_port<<std::endl;
google::ParseCommandLineFlags(&argc, &argv, true);

4 讲训练之后的权值参数应用到项目中去,使用matlab实现网络,并使用权值参数用于测试应用

熟练的使用这一套流程,最好的方式就是参考一篇论文
Image Super-Resolution Using Deep Convolutional Networks
这篇文章将CNN应用到超分辨率中,网络结构简单,代码可得,很适合初学者阅读

解决问题:
回顾caffe的prototxt的写法
使用matlab,构建定义的网络,并且利用训练好的权重参数

#prototxt#

网络中的数据抽象成Blob, 各层网络抽象成Layer,整个网络抽象成Net,网络模型的求解方法抽象成Solver

Blob 主要用来表示网络中的数据,包括训练数据,网络各层自身的参数,网络之间传递的数据都是通过 Blob 来实现的,同时 Blob 数据也支持在 CPU 与 GPU 上存储,能够在两者之间做同步。
Layer 是对神经网络中各种层的一个抽象,包括我们熟知的卷积层和下采样层,还有全连接层和各种激活函数层等等。同时每种 Layer 都实现了前向传播和反向传播,并通过 Blob 来传递数据。
Net 是对整个网络的表示,由各种 Layer 前后连接组合而成,也是我们所构建的网络模型。
Solver 定义了针对 Net 网络模型的求解方法,记录网络的训练过程,保存网络模型参数,中断并恢复网络的训练过程。自定义 Solver 能够实现不同的网络求解方式。

prototxt的解析用到了第三方库protobuffer。具体,在caffe中怎么写prototxt文件,看几个例子你就会了,其实examples里的给的就还不错。
主要有两个地方需要用到,一个是定义网络结构,一个是确定训练的超参数。
相关reference:
layer的介绍
http://caffe.berkeleyvision.org/tutorial/layers.html
layer定义时,可定义的参数参考
https://github.com/BVLC/caffe/blob/master/src/caffe/proto/caffe.proto

训练超参数参考(以下一页足矣)
https://github.com/BVLC/caffe/wiki/Solver-Prototxt

下面看几个例子
1 prototxt about network structure
文件结构
name: xxx #定义网络名称
layer{} #逐层定义网络

layer{}惯常结构
name,类型,输入bottom,输出top,然后定义一些不同类型layer独有的parameter

常见layer
输入层,分为lmdb和hdf5两种类型
layer {
name: "data"
type: "HDF5Data"
top: "data"
top: "label"
hdf5_data_param {
source: "examples/SRCNN/test.txt"
batch_size: 2
}
include: { phase: TEST } #声明该层使用在test还是train
}

layer {
name: "mnist"
type: "Data"
top: "data"
top: "label"
include {
phase: TRAIN
}
transform_param {
scale: 0.00390625
}
data_param {
source: "examples/mnist/mnist_train_lmdb"
batch_size: 64
backend: LMDB
}
}

卷积层
layer {
name: "conv2"
type: "Convolution"
bottom: "pool1"
top: "conv2"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
convolution_param {
num_output: 50
kernel_size: 5
stride: 1
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}

池化层
layer {
name: "pool2"
type: "Pooling"
bottom: "conv2"
top: "pool2"
pooling_param {
pool: MAX
kernel_size: 2
stride: 2
}
}

全连接层以及激活函数的添加

layer {
name: "ip1"
type: "InnerProduct"
bottom: "pool2"
top: "ip1"
param {
lr_mult: 1
}
param {
lr_mult: 2
}
inner_product_param {
num_output: 500
weight_filler {
type: "xavier"
}
bias_filler {
type: "constant"
}
}
}
layer {
name: "relu1"
type: "ReLU"
bottom: "ip1"
top: "ip1"
}

The solver.prototxt is a configuration file used to tell caffe how you want the network trained.
(这个例子取自 https://zhuanlan.zhihu.com/p/23445640)
net: "models/bvlc_alexnet/train_val.prototxt" #声明定义网络结构的prototxt的位置,这里使用的是相对路径,运行caffe时的路径就要注意在相应的目录下
test_iter: 1000 # 测试时,需要迭代的次数
test_interval: 1000 # 训练,每迭代test_interval次就进行一次测试
base_lr: 0.01 # 开始的学习率
lr_policy: "step" # 学习率的drop是以gamma在每一次迭代中
gamma: 0.1
stepsize: 100000 # 每stepsize的迭代降低学习率:乘以gamma
display: 20 # 每display次打印显示loss
max_iter: 450000 # train 最大迭代max_iter
momentum: 0.9 #
weight_decay: 0.0005 #

#snapshot
This parameter indicates how often caffe should output a model and solverstate.
snapshot: 10000
snapshot_prefix: "models/bvlc_reference_caffenet/caffenet_train"

solver_mode: GPU # 使用的模式是GPU

使用matlab复现网络结构,下一篇讲述吧

5 test
使用命令
caffe test
-model xxxx.prototxt(原先定义网络结构的prototxt,该文件中有定义输入数据的batch_size,批处理的数量)
-weights xxxx.caffemodel(训练好的参数)
-iterations 100 (确定训练迭代的次数,iteration×batch_size=样本容量)

补充小细节
# 从训练一半的模型快照中恢复训练 (参数:求解文件 快照)
-snapshot (Optional; the snapshot solver state to resume training.)

caffe train -solver examples/mnist/lenet_solver.prototxt -snapshot examples/mnist/lenet_iter_5000.solverstate

# 由其它训练好的模型 fine-tune (参数:求解文件 其它训练好的模型参数)
-weights (Optional; the pretrained weights to initialize finetuning
可以使用预训练或者之前迭代过的参数,继续训练
caffe train -solver examples/finetuning_on_flickr_style/solver.prototxt -weights models/bvlc_reference_caffenet/bvlc_reference_caffenet.caffemodel

蛮不错的,有助于理解的文章
https://zhuanlan.zhihu.com/p/24087905
没事可以多逛caffe中文社区

另外caffe除了上述命令行的形式,还提供了python和matlab的使用接口

下文预告:
如何使用matlab复现网络,如何使用.caffemodel文件

在此,感谢以下链接
基础知识补充
21天实战caffe 赵永科
有助于理解
https://zhuanlan.zhihu.com/p/24087905
有关prototxt、caffe wiki都在github上的wiki
https://github.com/BVLC/caffe/wiki
官方的说明参考,包括python、matlab接口使用
http://caffe.berkeleyvision.org/tutorial/interfaces.html

时间: 2024-10-12 22:04:19

21天学习caffe(二)的相关文章

21天学习caffe(一)

ubuntu环境安装caffe1 安装依赖 apt-get install libatlas-base-dev apt-get install python-dev apt-get install libgflags-dev libgoogle-glog-dev liblmdb-dev 等等等2 编译生成bin文件mv Makefile.config.example Makefile.config   #改名make or make -j2 排错:解决/boot空间不足问题 system mon

《深度学习-21天实战Caffe》高清带标签完整PDF版下载

近期做深度学习的项目用到了Caffe框架,需要系统地学习一下,特别是源码.经同事地推荐,了解熟悉了一本经典地好书 -- <深度学习-21天实战Caffe>,现在发现一个可以下载高清完整PDF版本地链接,比一般的都清晰,现在发出来这个下载链接. 百度云盘下载链接:<深度学习-21天实战Caffe> 这本高清的书基本长这个样子: 本书一共分为21天的知识点,在内容上分为上篇--<初见>.中篇--<热恋>.下篇--<升华>.作者以一种生动有趣的组织语言

算法学习(二) 全排列问题的非递归算法——模拟堆栈

前一段时间总结了全排列问题的几种递归解法,今天再总结一下如何通过对系统栈行为的模拟来非递归的实现全排列问题. 我们用一个数组stack[]来表示一个栈,用一个top指针来表示栈顶,用一个flags[]数组来标示每一个数字的可用性:用i来表示当前的状态. 初始状态top=0:i=-1:flags数组全为1: i递增,如果i没有越界并且flags[i]==1,那么就将i写入栈中,栈顶往前移动一位:最后把flags[i]赋值为0,i回溯到初始状态-1: 当栈顶越界,就将整个栈的信息打印出来,然后top

MyBatis学习总结(二)——使用MyBatis对表执行CRUD操作(转载)

孤傲苍狼 只为成功找方法,不为失败找借口! MyBatis学习总结(二)--使用MyBatis对表执行CRUD操作 上一篇博文MyBatis学习总结(一)--MyBatis快速入门中我们讲了如何使用Mybatis查询users表中的数据,算是对MyBatis有一个初步的入门了,今天讲解一下如何使用MyBatis对users表执行CRUD操作.本文中使用到的测试环境是上一篇博文中的测试环境. 一.使用MyBatis对表执行CRUD操作--基于XML的实现 1.定义sql映射xml文件 userMa

ReactiveCocoa & MVVM 学习总结二

二. MVVM 1. 什么是MVVM From: https://github.com/ReactiveCocoa/ReactiveViewModel#model-view-viewmodel MVVM是指 Model-View-ViewModel的简称,与MVC的一个主要区别是 view 拥有view model.这个与MVC不一样,MVC中应该是controller拥有view.同时,view model 中应该不包含相关view的代码,这样以来,view model就是独立的,可以与任何v

Android学习笔记二

17. 在ContentProvider中定义的getType()方法是定义URI的内容类型. 18. SQLiteDatabase类中的insert/delete/update/query方法其实也挺好用的,我在EquipmentProvider类中做了实现 19. Android专门有个单元测试项目(Android Test Project),在这个项目中,可以新建一个继承AndroidTestCase类的具体测试类来单元测试某个功能.我新建了一个AndroidTestProject项目,在

EasyUI学习总结(二)——easyloader分析与使用

EasyUI学习总结(二)--easyloader分析与使用 使用脚本库总要加载一大堆的样式表和脚本文件,在easyui 中,除了可以使用通常的方式加载之外,还提供了使用 easyloader 加载的方式.这个组件主要是为了按需加载组件而诞生.什么情况下使用它呢? 你觉得一次性导入 easyui 的核心 min js 和 css 太大 你只用到 easyui 的其中几个组件 你想使用其中的一个组件,但是你又不知道这个组件依赖了那些组件. 如果你有以上三中情况,那么推荐你使用easyLoader.

[转]Spring Security学习总结二

原文链接: http://www.blogjava.net/redhatlinux/archive/2008/08/20/223148.html http://www.blogjava.net/redhatlinux/archive/2008/09/01/226010.html [总结-含源码]Spring Security学习总结二 Posted on 2008-09-01 10:08 tangtb 阅读(9518) 评论(12)  编辑  收藏 所属分类: Spring .Spring Se

Maven学习总结(二)——Maven项目构建过程练习

Maven学习总结(二)——Maven项目构建过程练习 上一篇只是简单介绍了一下maven入门的一些相关知识,这一篇主要是体验一下Maven高度自动化构建项目的过程 一.创建Maven项目 1.1.建立Hello项目 1.首先建立Hello项目,同时建立Maven约定的目录结构和pom.xml文件 Hello | --src | -----main | ----------java | ----------resources | -----test | ---------java | -----