深度学习之神经网络(CNN/RNN/GAN) 算法原理+实战

第1章 课程介绍

深度学习的导学课程,主要介绍了深度学习的应用范畴、人才需求情况和主要算法。对课程章节、课程安排、适用人群、前提条件以及学习完成后达到的程度进行了介绍,让同学们对本课程有基本的认识。

第2章 神经网络入门

本次实战课程的入门课程。对机器学习和深度学习做了引入性讲解,通过若干项目举例讲解了深度学习的最新进展。通过讲解和实战神经网络中的基本结构——神经元及其扩展逻辑斯蒂回归模型,对本课程的基本知识进行全面的讲解,包括神经元、激活函数、目标函数、梯度下降、学习率、Tensorflow基础以及模型的Tensorflow代码实现。...

第3章 卷积神经网络

本节课程共两部分,第一部分对神经网络进行了完整的介绍,包括神经网络结构、正向传播、反向传播、梯度下降等。第二部分对卷积神经网络的基本结构,包括卷积、池化和全连接等进行讲解。尤其侧重卷积操作的细节,包括卷积核结构、卷积计算、卷积核参数数目计算等,并介绍了一个基本的卷积神经网络结构。...

第4章 卷积神经网络进阶

本节课程对高级的卷积神经网络结构进行了讲解,包括AlexNet、VGGNet、ResNet、InceptionNet、MobileNet等以及它们的演变过程。对于每个结构,本课程对其解决的问题、子结构的基本思想以及模型中使用的重要技巧一一进行了讲解。学完本课程后,同学们可以达到灵活搭建不同类型的卷积神经网络的能力。...

第5章 卷积神经网络调参

本节课对卷积网络中常用调参技巧(“炼丹术”)进行了系统总结和归纳。对部分重要调参技巧的背后原理进行了讲解。调参技巧包括梯度下降、学习率、激活函数、网络参数初始化、批归一化、数据增强、可视化训练过程分析、fine-tune等,很多调参技巧也适用其他网络。完成本课程后,学员们可以自称“炼丹师”了。...

第6章 图像风格转换

本节课程是卷积神经网络的应用课程,使用一个预训练好的VGG模型实现图像的风格转换算法。本节课程的知识点包括使用卷积神经网络提取特征、内容特征与风格特征的定义以及图片重建方法。除了基础的图像风格转换算法外,本课程还进一步介绍了另外两种改进版的风格转换算法。...

第7章 循环神经网络

本课程循环神经网络进行了讲解。包括循环神经网络解决序列式问题和网络的基本结构、多层、双向、残差结构以及递归截断梯度下降等。重点对常用变种——长短期记忆网络进行了详解。讲解并对比了循环神经网络与卷积神经网络在文本分类的多种应用模型,包括TextRNN、TextCNN与HAN(层次注意力网络,引入attention机制)等。...

第8章 图像生成文本

本课程是卷积神经网络与循环神经网络的联合应用课程。本课程对多个模型变种进行了讲解,包括Multi-Modal RNN、Show and Tell、Show Attend and Tell等。在课程最后对其反问题文本生成图像进行了描述,引出对抗神经网络。学完五六七课程后,同学们对卷积神经网络和循环神经网络的应用应该有了很深入的了解了。...

第9章 对抗神经网络

本课程对深度学习的最新进展——对抗神经网络进行了讲解。主要包括对抗神经网络的思想和两种具体的GAN网络,深度卷积对抗生成网络(DCGAN)和图像翻译(Pix2Pix)模型。涉及的知识点包括生成器G、判别器D、反卷积、U-Net等。...

第10章 自动机器学习网络-AutoML

本课程对深度学习的最新进展——自动机器学习网络进行了讲解。自动机器学习使用循环神经网络,对需要调整的网络结构参数进行自动搜索,从而得到比人类“炼丹师”更好的效果。本课程主要对三种最新的自动机器学习算法进行了讲解,三种算法依次递进,自动搜索得到目前在图像分类领域最优的卷积神经网络结构。...

第11章 课程总结

对课程整体进行回顾

下载地址:百度网盘下载

原文地址:https://www.cnblogs.com/lrb520/p/9461831.html

时间: 2024-11-07 21:07:15

深度学习之神经网络(CNN/RNN/GAN) 算法原理+实战的相关文章

深度学习基础--神经网络--BP反向传播算法

BP算法: 1.是一种有监督学习算法,常被用来训练多层感知机.  2.要求每个人工神经元(即节点)所使用的激励函数必须可微. (激励函数:单个神经元的输入与输出之间的函数关系叫做激励函数.) (假如不使用激励函数,神经网络中的每层都只是做简单的线性变换,多层输入叠加后也还是线性变换.因为线性模型的表达能力不够,激励函数可以引入非线性因素) 下面两幅图分别为:无激励函数的神经网络和激励函数的神经网络 如图所示,加入非线性激活函数后的差异:上图为用线性组合逼近平滑曲线来分割平面,下图为使用平滑的曲线

【深度学习篇】---CNN和RNN结合与对比,实例讲解

一.前述 CNN和RNN几乎占据着深度学习的半壁江山,所以本文将着重讲解CNN+RNN的各种组合方式,以及CNN和RNN的对比. 二.CNN与RNN对比 1.CNN卷积神经网络与RNN递归神经网络直观图 2.相同点:    2.1. 传统神经网络的扩展.    2.2. 前向计算产生结果,反向计算模型更新.    2.3. 每层神经网络横向可以多个神经元共存,纵向可以有多层神经网络连接. 3.不同点    3.1. CNN空间扩展,神经元与特征卷积:RNN时间扩展,神经元与多个时间输出计算   

《卷积神经网络的Python实现》PDF代码+《解析深度学习卷积神经网络原理与视觉实践》PDF分析

CNN正在革新几个应用领域,如视觉识别系统.自动驾驶汽车.医学发现.创新电子商务等.需要在专业项目或个人方案中利用复杂的图像和视频数据集来实现先进.有效和高效的CNN模型. 深度卷积网络DCNN是目前十分流行的深度神经网络架构,它的构造清晰直观,效果引人入胜,在图像.视频.语音.语言领域都有广泛应用. 深度学习,特别是深度卷积神经网络是人工智能的重要分支领域,卷积神经网络技术也被广泛应用于各种现实场景,在许多问题上都取得了超越人类智能的结果. <卷积神经网络的Python实现>作为深度学习领域

Spark MLlib Deep Learning Convolution Neural Network (深度学习-卷积神经网络)3.1

3.Spark MLlib Deep Learning Convolution Neural Network (深度学习-卷积神经网络)3.1 http://blog.csdn.net/sunbow0 Spark MLlib Deep Learning工具箱,是根据现有深度学习教程<UFLDL教程>中的算法,在SparkMLlib中的实现.具体Spark MLlib Deep Learning(深度学习)目录结构: 第一章Neural Net(NN) 1.源码 2.源码解析 3.实例 第二章D

Spark MLlib Deep Learning Convolution Neural Network (深度学习-卷积神经网络)3.2

3.Spark MLlib Deep Learning Convolution Neural Network(深度学习-卷积神经网络)3.2 http://blog.csdn.net/sunbow0 第三章Convolution Neural Network (卷积神经网络) 2基础及源码解析 2.1 Convolution Neural Network卷积神经网络基础知识 1)基础知识: 自行google,百度,基础方面的非常多,随便看看就可以,只是很多没有把细节说得清楚和明白: 能把细节说清

深度学习系列之CNN核心内容

这里为什么CNN核心内容?原因很简答,CNN说白了就是一个更多层.更多节点的ANN,不同之处就是处理网络每一层的权值的方法不一样(CNN,当然是卷积使得权值共享,降低连接数量,同时兼顾二维特征).从算法层面上讲,CNN的核心还是同BP网络一样,计算整个CNN网络中的误差反向传播,来更新每一层的权值,只不过这个误差反向传播更复杂.理解了CNN误差反向传播的过程,就基本上了解CNN. DNN的背景 DNN,deep neural network,近几年机器学习算法中崛起的旗舰方法,作为分类精度最高.

Spark MLlib Deep Learning Convolution Neural Network (深度学习-卷积神经网络)3.3

3.Spark MLlib Deep Learning Convolution Neural Network(深度学习-卷积神经网络)3.3 http://blog.csdn.net/sunbow0 第三章Convolution Neural Network (卷积神经网络) 3实例 3.1 测试数据 按照上例数据,或者新建图片识别数据. 3.2 CNN实例 //2 测试数据 Logger.getRootLogger.setLevel(Level.WARN) valdata_path="/use

深度学习之神经网络与支持向量机

深度学习之神经网络与支持向量机 引言:神经网络(Neural Network)与支持向量机(Support Vector Machines,SVM)是统计学习的代表方法.可以认为神经网络与支持向量机都源自于感知机(Perceptron).感知机是1958年由Rosenblatt发明的线性分类模型.感知机对线性分类有效,但现实中的分类问题通常是非线性的. 神经网络与支持向量机(包含核方法)都是非线性分类模型.1986年,Rummelhart与McClelland发明了神经网络的学习算法Back P

深度学习——人工神经网络再掀研究热潮

深度学习——人工神经网络再掀研究热潮 胡晓林 人工神经网络起源于上世纪40年代,到今天已经70年历史了.就像人的一生,经历了起起落落,有过辉煌,有过黯淡,有过嘈杂,有过冷清.总体说来,过去的20年中人工神经网络的研究不温不火,直到最近三五年,随着深度学习概念的提出,人工神经网络才又重新焕发生机,甚至再度掀起研究热潮.本文简述一下人工神经网络的“前世今生”,并简单展望一下它的未来. 第一个神经元模型是1943年McCulloch和Pitts提出的,称为threshold logic,它可以实现一些