caffe使用mnist训练的效果测试

今天根据网上的文章,训练了一下mnist的数据

效果不是很好

配置的过程参考:

http://www.cnblogs.com/yixuan-xu/p/5858595.html

http://www.cnblogs.com/yixuan-xu/p/5862657.html

其实最后他是用的是classification.exe进行分类

我修改了一个下classification.cpp里面的代码,代码如下:

int main(int argc, char** argv) {
	/***
  if (argc != 6) {
    std::cerr << "Usage: " << argv[0]
              << " deploy.prototxt network.caffemodel"
              << " mean.binaryproto labels.txt img.jpg" << std::endl;
    return 1;
  }

  ::google::InitGoogleLogging(argv[0]);

  string model_file   = argv[1];
  string trained_file = argv[2];
  string mean_file    = argv[3];
  string label_file   = argv[4];
  Classifier classifier(model_file, trained_file, mean_file, label_file);

  string file = argv[5];
  **/
	if (argc != 2) {
		std::cerr << "Usage: " << argv[0]
			<< " deploy.prototxt network.caffemodel"
			<< " mean.binaryproto labels.txt img.jpg" << std::endl;
		return 1;
	}

	::google::InitGoogleLogging(argv[0]);

	string model_file = "lenet.prototxt";
	string trained_file = "lenet_iter_10000.caffemodel";
	string mean_file = "mean.binaryproto";
	string label_file = "synset_words.txt";
	Classifier classifier(model_file, trained_file, mean_file, label_file);

	string file = argv[1];

	IplImage *image = cvLoadImage(file.c_str());
	IplImage *desc;
	if (!image){
		printf(" No image data \n ");
		return -1;
	}
	CvSize sz;
	sz.width = 28;
	sz.height = 28;
	desc = cvCreateImage(sz, image->depth, image->nChannels);
	cvResize(image, desc, CV_INTER_AREA);
	cv::Mat imge;
	imge=cv::cvarrToMat(desc);
	cv::Mat gray_image;
	cvtColor(imge, gray_image, CV_BGR2GRAY);
	imwrite("gray_image.bmp", gray_image);
	file = "gray_image.bmp";

  std::cout << "---------- Prediction for "
            << file << " ----------" << std::endl;

  cv::Mat img = cv::imread(file, -1);
  CHECK(!img.empty()) << "Unable to decode image " << file;
  std::vector<Prediction> predictions = classifier.Classify(img);

  /* Print the top N predictions. */
  for (size_t i = 0; i < predictions.size(); ++i) {
    Prediction p = predictions[i];
    std::cout << std::fixed << std::setprecision(4) << p.second << " - \""
              << p.first << "\"" << std::endl;
  }
}

最后生成的可以执行的文件包如下

博客园这货上传文件容量那么少,只能找度娘了

http://pan.baidu.com/s/1gfcHkhP

直接点击里面的bat就可以查看效果!

时间: 2024-09-29 21:12:28

caffe使用mnist训练的效果测试的相关文章

利用mnist训练集生成的caffemodel对mnist测试集与自己手写的数字进行测试

从一到二:利用mnist训练集生成的caffemodel对mnist测试集与自己手写的数字进行测试 通过从零到一的教程,我们已经得到了通过mnist训练集生成的caffemodel,主要包含下面四个文件: 接下来就可以利用模型进行测试了.关于测试方法按照上篇教程还是选择bat文件,当然python.matlab更为方便,比如可以迅速把识别错误的图片显示出来. 一.均值文件mean.binaryproto 在进行分类之前首先需要产生所有图片的平均值图片,真正分类时的每个图片都会先减去这张平均值图片

caffe for windows 训练cifar10 及若干问题

声明:有部分内容转载至笑笑魔导师 1,准备cifar10数据库 cifar10数据库由60000张32*32 彩色图片 共10类 其中50000张训练 10000张测试 下载cifar10数据库:http://www.cs.toronto.edu/~kriz/cifar-10-binary.tar.gz 这是binary格式的,所以我们要把它转换成leveldb格式. 2,转换数据 在../caffe-windows/examples/cifar10文件夹中有一个 convert_cifar_d

Windows Caffe中MNIST数据格式转换实现

Caffe源码中src/caffe/caffe/examples/mnist/convert_mnist_data.cpp提供的实现代码并不能直接在Windows下运行,这里在源码的基础上进行了改写,使其可以直接在Windows 64位上直接运行,改写代码如下: #include "stdafx.h" #include <gflags/gflags.h> #include <glog/logging.h> #include <google/protobuf

windows环境Caffe安装配置步骤(无GPU)及mnist训练

在硕士第二年,义无反顾地投身到了深度学习的浪潮中.从之前的惯性导航转到这个方向,一切从头开始,在此,仅以此文记录自己的打怪之路. 最初的想法是动手熟悉Caffe,考虑到直接上手Ubuntu会有些难度,所以首先在windows环境下打个基础.有个插曲,台式机由于某些原因只能保持在32位系统,编译caffe.cpp时才发现系统不兼容,然后才换到64位的笔记本上进行操作. 前期准备:1.VS 2013   2. windows版的Caffe(https://github.com/BVLC/caffe/

caffe + ssd网络训练过程

參考博客:https://blog.csdn.net/xiao_lxl/article/details/79106837 1获取源代码:git clone https://github.com/weiliu89/caffe.git2 进入目录中 :cd caffe 3,git checkout ssd 主要参考 https://github.com/weiliu89/caffe/tree/ssd 获取SSD的代码,下载完成后有一个caffe文件夹 git clone https://github

Caffe for Windows 训练cifar10

我们学习Caffe提供的简单例程,目的是为了让初学者轻松上手,以examples/cifar10/为例,主要用于小图片的分类. 1 cifar10数据集 60000张32*32彩色图片,50000张训练,10000张测试 下载cifar10数据集:http://www.cs.toronto.edu/~kriz/cifar-10-binary.tar.gz 将下载好并解压好的数据存放于/data/cifar10/路径 下载好的原始数据是BINARY(二进制)格式的,需要转换成LMDB或LEVELD

基于英特尔&#174; 至强 E5 系列处理器的单节点 Caffe 评分和训练

原文链接 在互联网搜索引擎和医疗成像等诸多领域,深度神经网络 (DNN) 应用的重要性正在不断提升. Pradeep Dubey 在其博文中概述了英特尔? 架构机器学习愿景. 英特尔正在实现 Pradeep Dubey 博文中勾勒的机器学习愿景,并正在着手开发软件解决方案以加速执行机器学习工作负载.这些解决方案将包含在未来版本的英特尔? 数学核心函数库(英特尔? MKL)和英特尔? 数据分析加速库(英特尔? DAAL)中. 本技术预览版展示了配备我们正在开发的软件后,英特尔平台将有望实现的性能.

caffe再见之训练自己的数据

Caffe的数据格式采用leveldb或者lmdb格式 本文采用数据为已标定过的彩色图像,共1000张训练图共10个类别,200张测试图像10个类别,下载地址:http://pan.baidu.com/s/1hsvz4g8. 第一步:数据格式转换 1.编译conver_imageset,在\Caffe-Master\Build\x64\Release下生成convert_imageset.exe. 2.在根目录data文件下新建属于自己的数据集文件夹(主要是为了便于整理,具体位置可以根据自己需要

Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally如何使用尽可能少的标注数据来训练一个效果有潜力的分类器

作者:AI研习社链接:https://www.zhihu.com/question/57523080/answer/236301363来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 今天我给大家介绍一下 CVPR 2017 关于医学图像处理的一篇比较有意思的文章,用的是 active learning 和 incremental learning 的方法. 今天分享的主要内容是,首先介绍一下这篇文章的 motivation,就是他为什么要做这个工作:然后介绍一下他