先天认知与深度学习

“天赋论学说认为,人类思维是与生俱来的思想或知识。在这种理念中,最著名的是柏拉图的形式理论,以及后来的笛卡尔的《沉思录》。目前,这一观点正在获取神经科学方面的证据,以证实我们确实生来就对我们的世界有先天的认识”。


Figure 1: An elder Plato walks alongside Aristotle, The School of Athens, Raphael

然而,“天赋论”学说与“纯粹主义”机器学习方法是相冲突的。在这种“纯粹的”机器学习算法中,算法仅从数据中学习,而无需进行显式编程或配备预编程的计算和逻辑模块。

“思想的实际内容是非常深奥、无比复杂的;我们不应该试图寻找一些简单的方法来思考思想的实际内容,比如用简单的方法来思考空间、物体、多主体或对称性等内容。所有这些都是任意的、内在复杂的外部世界的一部分。它们不是应该被内置的,因为它们的复杂性是无止境的;相反,我们应该只构建那些能够发现和捕获这种任意复杂性的元方法。”

——The Bitter Lesson
Rich Sutton
March 13, 2019

但是,有一种持截然相反观念的思想流派,建议将符号主义人工智能技术与深度学习相结合。

深度学习的未来

纽约大学教授Gary Marcus等人提倡的一种观点认为,深度学习需要与更古老的、象征主义的人工智能技术相结合,以达到人类的智能水平。但是,Hinton并不这么认为。Hinton将此比作使用电动马达却仅仅用来驱动汽油发动机的喷油器,尽管电力更节能。

与此同时,混合模型可能能够会解决深度学习明显的局限性,特别是关于“深度学习目前缺乏一个明确的定义来学习抽象概念的机制,当有成千上万、数百万甚至数十亿的训练实例时,这种方法效果是最好”。

你是否认为我们最好把GOFAI融入深度学习呢?争论仍在激烈进行。

新的神经学证据

在我看来,其实这些讨论最终都归结为一个问题——我们人类是通过经验来学习一切,还是生来就具有某种形式的先天认知?

在《美国国家科学院院刊》(PNAS)上发表的一项研究表示:

“研究发现了一种突触组织原理,它以一种动物间普遍存在的方式将神经元分组,从而独立于个体经验”

——A synaptic organizing principle for cortical neuronal groups
By Rodrigo Perin, Thomas K. Berger, and Henry Markram

这样的集群包含物理世界某些简单工作的内容。

“在动物的新皮层中同时出现的神经元群,或称细胞集合体,本质上是细胞的‘积木’。对许多动物来说,学习、感知和记忆可能是将这些碎片拼凑在一起的结果,而不是形成新的细胞组合。”

——Are We Born With Knowledge?
in Uncategorized

分界线

随着越来越多的神经学证据支持先天认知的存在,用“先天”的计算模块或原语来装备深度学习可能是有意义的。同时,其中的一些原语很有可能将基于那些从GOFAI借鉴或启发的思想。

另一方面,我们很难预测未来的深度学习架构会是什么样子。Yoshua Bengio本人也承认,“在神经网络能够达到人类大脑所拥有的一般智力之前,深度学习的新架构是很需要的。”

在我看来,与诸如神经后端和符号前端(如图2)的清晰并置相反,符号操作很可能会与神经体系结构深度耦合和纠缠在一起。“ 与通用计算机程序相比,它们的模型要比我们当前可区分的层更丰富的基元之上构建,这是我们将如何进行推理和抽象的方法,也是当前模型的基本弱点 ”


Figure 2: Deep Symbolic Reinforcement Learning, the neural back end learns to map raw sensor data into a symbolic representation, which is used by the symbolic front end to learn an effective policy (source)

这表明,“纯粹主义”和“混合主义”这两种方法之间的界限非常模糊。因此我认为,在观点上的分歧更多程度上是重点不同产生的分歧,而不是根本的分歧。

原文链接:https://towardsdatascience.com/innate-knowledge-and-deep-learning-8e9405741ee2

欢迎点击“京东云”了解更多精彩内容


以上信息来源于网络,由“京东云开发者社区”公众号编辑整理,不代表京东云立场。

原文地址:https://www.cnblogs.com/jdclouddeveloper/p/12186521.html

时间: 2024-10-25 22:31:44

先天认知与深度学习的相关文章

怼完Sophia怼深度学习!细数完大神H5微信牛牛棋牌源码架设出售是这样怼人的...

十多个小时前,深度学习大神Yann LeCun语出惊人,他宣布放弃H5微信牛牛棋牌源码架设出售( h5.super-mans.com Q2012035031 ?17061863513 vx同)H5微信牛牛棋牌源码架设出售这个词.因为媒体对这个词的炒作言过其实,混淆了大家真正的工作,而"可微分编程"才是对此更好的描述: "将各种参数化的函数模块网络组装起来,做成新软件,同时以某种基于梯度的优化再将其训练出来" 这跟普通的编程工作也没多大差别,除了参数化的自动微分,以及

TensorFlow【机器学习】:如何正确的掌握Google深度学习框架TensorFlow(第二代分布式机器学习系统)?

本文标签:   机器学习 TensorFlow Google深度学习框架 分布式机器学习 唐源 VGG REST   服务器 自 2015 年底开源到如今更快.更灵活.更方便的 1.0 版本正式发布,由 Google 推出的第二代分布式机器学习系统 TensorFlow一直在为我们带来惊喜,一方面是技术层面持续的迭代演进,从分布式版本.服务框架 TensorFlow Serving.上层封装 TF.Learn 到 Windows 支持.JIT 编译器 XLA.动态计算图框架 Fold 等,以及

【深度学习学习记录】之一:开篇闲扯一些话

深度学习的历史可谓是一波三折,而就在最近阿尔法狗战胜李世乭,让深度学习再次回到人们的视线. 我对深度学习的真正意义上的认识,还得从2016.05.26日的一节课上说起. 讲课老师是信科软工所的李戈老师,他是一位较年轻的副教授,讲课风趣幽默,看上去很健谈,喜欢笑. 这位老师在三个小时的课程中,带领我们从只是听说过深度学习到对深度学习有个大致了解.全程我都非常认真的听了,这种感受已经在大三之后都几乎没有过了,我认为一方面是老师讲课的方式非常吸引人,另一方面是兴趣使然,我对人工智能方面还是非常感兴趣的

GitChat·人工智能 | 除了深度学习,机器翻译还需要啥?

本文开始要写作的时候,翻译圈里出了一个"爆炸性"的事件.6月27日下午,一个同传译员在朋友圈里爆料:某AI公司请这位译员去"扮演"机器同传,制造人工智能取代人工同传的"震撼"效果. 这个事件瞬间在译员群体的朋友圈.微博.微信群引爆了隐忍已久的火药桶.因为过去几个月来,隔三差五就冒出一个号称要取代同声传译的翻译机,尤其是一篇题为<刚刚宣告:同声传译即将消亡!>的微信文章,在六月下旬铺天盖地的充满了一堆有关的或者无关的公众号,不知道带来了

Deep Learning(深度学习)学习笔记整理系列之(三)

Deep Learning(深度学习)学习笔记整理系列 [email protected] http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的版本声明也参考原文献. 2)本文仅供学术交流,非商用.所以每一部分具体的参考资料并没有详细对应.如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主

秦涛:深度学习的五个挑战和其解决方案

深度学习的五个挑战和其解决方案 编者按:日前,微软亚洲研究院主管研究员秦涛博士受邀作客钛媒体,分享他对深度学习挑战和解决方案的思考 ,本文为秦涛博士在此次分享的实录整理. 大家好,我是微软亚洲研究院的秦涛,今天我将分享我们组对深度学习这个领域的一些思考,以及我们最近的一些研究工作.欢迎大家一起交流讨论. 先介绍一下我所在的机器学习组.微软亚洲研究院机器学习组研究的重点是机器学习,包含机器学习的各个主要方向,从底层的深度学习分布式机器学习平台(AI的Infrastructure)到中层的深度学习.

对比深度学习十大框架:TensorFlow 并非最好?

http://www.oschina.net/news/80593/deep-learning-frameworks-a-review-before-finishing-2016 TensorFlow 链接:https://www.tensorflow.org/ 对于那些听说过深度学习但还没有太过专门深入的人来说,TensorFlow 是他们最喜欢的深度学习框架,但在这里我要澄清一些事实. 在 TensorFlow 的官网上,它被定义为「一个用于机器智能的开源软件库」,但我觉得应该这么定义:Te

一线开发者在Reddit上讨论深度学习框架:PyTorch和TensorFlow到底哪个更好?

本文标签:   机器学习 TensorFlow Google深度学习框架 分布式机器学习 PyTorch   近日,Reddit用户 cjmcmurtrie 发了一个主题为「PyTorch vs. TensorFlow」的讨论帖,想要了解这两大流行的框架之间各自有什么优势. 原帖地址:https://redd.it/5w3q74 帖子一楼写道: 我还没有从 Torch7 迁移到 TensorFlow.我玩过 TensorFlow,但我发现 Torch7 更加直观(也许是我玩得不够?).我也尝试了

[转]深度学习之浅见

通常来说,大家认为深度学习的观点是Geoffrey Hinton在2006年提出的.这一算法提出之后,得到了迅速的发展.关于深度学习,zouxy09的专栏中有详细的介绍,Free Mind 的博文也很值得一读.本博文是我对深度学习的一点看法,主要内容在第4.5部分,不当之处还请指教. 1.深度学习 深度学习,即Deep Learning,是一种学习算法(Learning algorithm).学习算法这个很好理解,那么Deep指的是什么呢?这里的Deep是针对算法的结构而言的. 譬如,SVMs及