经典深度学习CNN- LeNet、AlexNet、GoogLeNet、VGG、ResNet

参考了:

https://www.cnblogs.com/52machinelearning/p/5821591.html

https://blog.csdn.net/qq_24695385/article/details/80368618

LeNet

参考:https://www.jianshu.com/p/ce609f9b5910

AlexNet

参考:https://baike.baidu.com/item/AlexNet/22689612?fr=aladdin

GoogLeNet

2014年ImageNet冠军

参考:https://www.cnblogs.com/shouhuxianjian/p/7786760.html

https://www.cnblogs.com/Allen-rg/p/5833919.html

VGG

2014年ImageNet亚军

参考:https://baike.baidu.com/item/VGG%20模型/22689655?fr=aladdin

ResNet

https://www.cnblogs.com/alanma/p/6877166.html

主要解决深层网络梯度消失问题。

原文地址:https://www.cnblogs.com/xbit/p/10050776.html

时间: 2024-07-30 16:10:40

经典深度学习CNN- LeNet、AlexNet、GoogLeNet、VGG、ResNet的相关文章

深度学习—从LeNet到DenseNet

CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNet和最近的DenseNet,网络越来越深,架构越来越复杂,解决反向传播时梯度消失的方法也越来越巧妙. LeNet AlexNet ZF VGG GoogLeNet ResNet DenseNet 1.LeNet(1998) 闪光点:定义了CNN的基本组件,是CNN的鼻祖. LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决

利用 TFLearn 快速搭建经典深度学习模型

利用 TFLearn 快速搭建经典深度学习模型 使用 TensorFlow 一个最大的好处是可以用各种运算符(Ops)灵活构建计算图,同时可以支持自定义运算符(见本公众号早期文章<TensorFlow 增加自定义运算符>).由于运算符的粒度较小,在构建深度学习模型时,代码写出来比较冗长,比如实现卷积层:5, 9 这种方式在设计较大模型时会比较麻烦,需要程序员徒手完成各个运算符之间的连接,像一些中间变量的维度变换.运算符参数选项.多个子网络连接处极易发生问题,肉眼检查也很难发现代码中潜伏的 bu

七月算法--12月机器学习在线班-第十九次课笔记-深度学习--CNN

七月算法--12月机器学习在线班-第十九次课笔记-深度学习--CNN 七月算法(julyedu.com)12月机器学习在线班学习笔记http://www.julyedu.com 1,卷积神经网络-CNN 基础知识 三个要点 1: 首先将输入数据看成三维的张量(Tensor) 2: 引入Convolution(卷积)操作,单元变成卷积核,部分连接共享权重 3:引入Pooling(采样)操作,降低输入张量的平面尺寸 ,1.1 张量(Tensor) 高,宽度,深度,eg:彩色图像:rgb,3个深度,图

深度学习 CNN CUDA 版本2

作者:zhxfl 邮箱:zhxfl##mail.ustc.edu.cn 主页:http://www.cnblogs.com/zhxfl/p/4155236.html 第1个版本blog在这里:http://www.cnblogs.com/zhxfl/p/4134834.html 第2个版本github:https://github.com/zhxfl/CUDA-CNN 欢迎fork,在第一个版本的时候,我们只是针对手写数字,也就是黑白图片.在第二个版本中,我加入了很多东西. 第二个版本的特性 1

小刘的深度学习---CNN

前言: 前段时间我在树莓派上通过KNN,SVM等机器学习的算法实现了门派识别的项目,所用到的数据集是经典的MNIST.可能是因为手写数字与印刷体存在一些区别,识别率并是很不高.基于这样的情况,我打算在PC端用CNN试一试MNIST上的识别率. 正文: 一张图展示CNN 导入基础包 import tensorflow as tf from sklearn.datasets import load_digits import numpy as np 导入数据集 digits = load_digit

深度学习-CNN tensorflow 可视化

tf.summary模块的简介 在TensorFlow中,最常用的可视化方法有三种途径,分别为TensorFlow与OpenCv的混合编程.利用Matpltlib进行可视化.利用TensorFlow自带的可视化工具TensorBoard进行可视化.这三种方法,在前面博客中都有过比较详细的介绍.但是,TensorFlow中最重要的可视化方法是通过tensorBoard.tf.summary和tf.summary.FileWriter这三个模块相互合作来完成的. tf.summary模块的定义位于s

LeNet,AlexNet,GoogleLeNet,VggNet等网络对比

CNN的发展史 上一篇回顾讲的是2006年Hinton他们的Science Paper,当时提到,2006年虽然Deep Learning的概念被提出来了,但是学术界的大家还是表示不服.当时有流传的段子是Hinton的学生在台上讲paper时,台下的机器学习大牛们不屑一顾,质问你们的东西有理论推导吗?有数学基础吗?搞得过SVM之类吗?回头来看,就算是真的,大牛们也确实不算无理取闹,是骡子是马拉出来遛遛,不要光提个概念. 时间终于到了2012年,Hinton的学生Alex Krizhevsky在寝

承接TensorFlow深度学习代做pytorch图像处理

无监督预训练网络 卷积神经网络 循环神经网络 递归神经网络 机器学习,深度学习代做 图像处理 代做机器学习深度学习算法 knn kmeans 聚类分析 图像识别 图像分割 超分辨率图像算法分析 常见深度学习算法LeNet AlexNet SPPNet等等 vx:wxid910000 扣扣:2773878606 原文地址:https://www.cnblogs.com/chengxufuwu/p/12389285.html

深度学习经典网络总结

深度学习经典网络总结 最近看的4篇经典深度学习的paper,总结一下. 一.AlexNet (一)成绩 多伦多大学alex团队ILSVRC-2012冠军网络 (二)网络结构 5层卷积 + 3层全连接 (三)网络特色 1.局部响应归一化(LRN:Local Response Normalization) 当前通道当前点的像素值/(相邻 通道数/2 的不同特征图上对应的同一点,像素值的平方和) 当该通道和邻近通道像素绝对值都比较大的时候,归一化后值变得更小. 采用这种方法,在ImageNet数据集1