神经网络的6个基本问题

转自I love Matlab论坛

视频制作好以后,自己再回头看看,感觉讲的有点磨叽, 适合初学者看!下个视频,争取简化一点。

大家看了以后,有什么意见的,尽管提啊!

这一节主要讲了以下几个问题:

•第一个问题:什么时候可以用神经网络? 
•第二个问题:分类还是回归?(classification or regression) 
•第三个问题:Deterministic 还是Stochastic 
•第四个问题:Supervised 还是 Unsupervised 
•第五个问题:On-line 还是 Off-line 
•第六个问题:Pc 还是其他硬件设备(DSP芯片) 
•总结:我们将会学习的网络

视频可以免费下载(20 KB/秒),回复即可看到下载地址:

http://www.ilovematlab.cn/forum.php?mod=viewthread&tid=632

神经网络的6个基本问题

时间: 2024-10-17 10:35:22

神经网络的6个基本问题的相关文章

强人工智能基本问题:神经网络分层还是不分层

版本:0.1 现代的大部分机器学习的算法将神经元分出了清晰的层次.所谓分层,即将神经元分为几层(也可认为是几组).每层内的神经元没有联系,相邻的层与层之间的神经元会有两两的联系,从而形成一个关系矩阵.非相邻层的神经元之间没有联系.这里的相邻指的是神经元层次之间的关系,每层神经元有一层或者前后两层相邻. 一般神经网络的算法的神经元层数是有限的,一般是两三层.在理论上,三层神经元(包括输入.输出和隐含层,除去输入输出,也可算做只有一层)就足以解决所有问题了,因为中间的隐含层能够表达所有函数.但这只是

脉冲神经网络Spiking neural network

(原文地址:维基百科) 简单介绍: 脉冲神经网络Spiking neuralnetworks (SNNs)是第三代神经网络模型,其模拟神经元更加接近实际,除此之外,把时间信息的影响也考虑当中.思路是这种,动态神经网络中的神经元不是在每一次迭代传播中都被激活(而在典型的多层感知机网络中却是),而是在它的膜电位达到某一个特定值才被激活.当一个神经元被激活,它会产生一个信号传递给其它神经元,提高或减少其膜电位. 在脉冲神经网络中,神经元的当前激活水平(被建模成某种微分方程)通常被觉得是当前状态,一个输

八卦Minsky打压神经网络始末

八卦Minsky打压神经网络始末 谈下Minsky造成的神经网络冰河事件:57年一个叫弗兰克的大概只有二流水平的学者搞出了感知机,理论和实践证明了对线性可分问题的有效性,引起一阵轰动,特别是非科学圈类似新闻联播这样媒体的强烈关注,完全就是学术界的“一球成名”.而政府方面一看新闻联播都报道了,看来感知机这个玩意一定很牛掰的样子,一定要大力支持一下嘛,找上门来要给做神经网络的科研经费. 而这个小伙也不太懂人情世故,更不懂闷声发大财的道理,到处张扬.而符号逻辑这一派的人本难就很难再从政府那里申请到经费

【神经网络和深度学习】笔记 - 第五章 深度神经网络学习过程中的梯度消失问题

之前的章节,我们利用一个仅包含一层隐藏层的简单神经网络就在MNIST识别问题上获得了98%左右的准确率.我们于是本能会想到用更多的隐藏层,构建更复杂的神经网络将会为我们带来更好的结果. 就如同在进行图像模式识别的时候,第一层的神经层可以学到边缘特征,第二层的可以学到更复杂的图形特征,例如三角形,长方形等,第三层又会识别更加复杂的图案.这样看来,多层的结构就会带来更强大的模型,进行更复杂的识别. 那么在这一章,就试着训练这样的神经网络来看看对结果有没有什么提升.不过我们发现,训练的过程将会出现问题

循环和递归神经网络 (RNN) 与 长短时记忆 (LSTM)

即使不是 NLPer,现实中依然会面对很多序列问题. 全文内容来自 Ian Goodfellow, Yoshua Bengio 和 Aaron Courville 3位大老爷的作品"Deep Learning"的其中1章"Sequence Modeling: Recurrent and Recursive Nets" 1. 1986年 Rumelhart 等人提出循环神经网络.循环网络与多层网络相比,会共享每层的权重,从而能够扩展和应用网络于不同长度的序列案例,以及

Neural Networks and Deep Learning学习笔记ch1 - 神经网络

近期開始看一些深度学习的资料.想学习一下深度学习的基础知识.找到了一个比較好的tutorial,Neural Networks and Deep Learning,认真看完了之后觉得收获还是非常多的.从最主要的感知机開始讲起.到后来使用logistic函数作为激活函数的sigmoid neuron,和非常多其它如今深度学习中常使用的trick. 把深度学习的一个发展过程讲得非常清楚,并且还有非常多源代码和实验帮助理解.看完了整个tutorial后打算再又一次梳理一遍,来写点总结.以后再看其它资料

搞清楚基本问题

在深入理解一个领域时,搞清楚基本问题是什么. 先考虑一下,如果搞不清基本问题会怎样? 不能正确地看清问题的本源,导致在错误的方向或者非主要矛盾上投入不必要的资源,最终不能解决实际问题或者效果不好: 漫无边际地接触地摸索,问题扩大化,使得问题过于庞杂而无法理出头绪,导致停滞不前: 问题搞不清楚,脑子里一团乱麻,易导致情绪上烦躁,产生放弃理解对象的念头.相反,如果事情理的比较清楚,容易产生耐心和信心. 以上总结来说:一是,面对事物时抓不住重点,二是容易产生烦躁情绪从而放弃面对和处理事物. 如果能想清

Bash 的若干基本问题

Bash 的若干基本问题 这里介绍一些bash启动前.后的问题,以及一些使用bash需要注意的基本问题. 1.Bash的介绍 Bash是一种Shell程序,它是一般的Linux系统中的默认的Shell程序,一般情况下Bash指的是/bin/bash这个软件. 一个Linux系统中有多少个可用的Shell程序,可以从/etc/shells文件中查出来. 当前登录用户的默认Shell是哪一个,可以从/etc/passwd文件中与此用户对应的那一行最后一个字段看出来.或者也可以通过echo $SHEL

深度学习方法(十):卷积神经网络结构变化——Maxout Networks,Network In Network,Global Average Pooling

技术交流QQ群:433250724,欢迎对算法.技术感兴趣的同学加入. 最近接下来几篇博文会回到神经网络结构的讨论上来,前面我在"深度学习方法(五):卷积神经网络CNN经典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning"一文中介绍了经典的CNN网络结构模型,这些可以说已经是家喻户晓的网络结构,在那一文结尾,我提到"是时候动一动卷积计算的形式了",原因是很多工作证明了,在基本的CNN卷积计算模式之外,很多简