<深度学习基础>
卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batch normalization,各类经典的网络结构,各类优化方法
1、卷积神经网络工作原理的直观解释
https://www.zhihu.com/question/39022858
简单来说,在一定意义上,训练CNN就是在训练每一个卷积层的滤波器。让这些滤波器组对特定的模式有高的激活能力,以达到CNN网络的分类/检测等目的。
2、卷积神经网络的复杂度分析
https://zhuanlan.zhihu.com/p/31575074
3、CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
https://www.zhihu.com/question/34681168
4、BP算法中为什么会产生梯度消失?
https://www.zhihu.com/question/49812013
5、梯度下降法是万能的模型训练算法吗?
https://www.zhihu.com/question/38677354
6、LSTM如何来避免梯度消失和梯度爆炸?
https://www.zhihu.com/question/34878706
7、SGD有多种改进的形式(rmsprop、adadelta等),为什么大多数论文中仍然用SGD?
https://www.zhihu.com/question/42115548
8、你有哪些deep learning(rnn,cnn)调参的经验?
https://www.zhihu.com/question/41631631
https://zhuanlan.zhihu.com/p/32230623
10、全连接层的作用是什么?
https://www.zhihu.com/question/41037974
11、深度学习中 Batch Normalization为什么效果好?
https://www.zhihu.com/question/38102762
12、为什么现在的CNN模型都是在GoogleNet、Vggnet或者Alexnet上调整的?
https://www.zhihu.com/question/43370067
13、Krizhevsky等人是怎么想到在CNN里面用Dropout和ReLU的?
https://www.zhihu.com/question/28720729
原文地址:https://www.cnblogs.com/ariel-dreamland/p/10594909.html