从联结主义到逻辑推理再到两者统一

author:佟学强

abstract

文章的标题想了很久,有点儿勉强了,因为让机器实现逻辑推理还差得远。在Ai领域里,目前统计学派和联结主义学派比较盛行,但是类脑学科还没突破,所以当下的Ai都是弱Ai。目前取得突破的基本都是在视觉和语音领域,nlp的进展非常缓慢。众所周知的人类两种智能归纳总结和演绎推理,联结主义只是解决了归纳总结问题,而在nlp中联结主义集中表现在文字高阶特征的抽取上,比如目前流行的w2v,textCNN,LSTM等等。文字的语义理解,需要更加高阶的智能,即演绎推理能力,包括语义的联想,上下文关联,因果关系推理,语义的组合泛化(以有限的知识,概念作为基,然后进行语义组合形成新的概念、知识,机器能够推导出新的关系,逻辑)。所以nlp的道路,任重道远。

更进一步地讲,上帝创造这个世界的同时也创造了规则,然后上帝撒手,让万事万物按照规则进化,运转。牛顿晚年研究神学得到启示:他所发现的规则是上帝制定的。人可以发现规则,事物之间总是存在关联,最极端的情况是两个事物之间没有关联以及一个事物与其他所有事物都存在关联,大部分情况是介于两者之间。从特殊到一般的归纳总结能力,人类在幼儿时期就已经具备了,这种学习能力有助于我们认识大自然的规则。虽然经验主义对人类的学习起到了很大的作用,但是显然人类在婴幼儿时期的学习,并不依赖大量的先验知识,窥破这种机制对目前的AI将起到非常大的推进作用。比如对于幼儿,他不理解下跌这个词的含义,我把一个皮球拿到他眼前,然后演示皮球的自由落体运动,最后我告诉他,这个过程叫下跌。过一会儿,我写下这么一句话:近期由于中美贸易战,股市下跌了(假设他之前理解了什么叫股市)。那么当他看到下跌这个词时,会马上联想起之前我给他演示的自由落体运动,于是他理解了这句话的含义。看到了吧,这才是真正的AI!小球下落的神经回路与股市下跌具有极高的相似度,人脑会自动把下跌抽象化,并且人脑会推断,不光皮球可以下跌,其他的同类都可以下跌,可以衍生出很多的组合。遇到陌生的事物,进行语义关联和组合泛化是基本的思路,这本是逻辑推理的一种形式。也就是说,上帝创造世界的时候,只是创造了这个世界的基,这些基按照规则会创造出无限的可能性。这个组合泛化能力是当今的神经网络最缺失的。现在的神经网络犹如一个智商非常低的笨蛋,体型巨大,需要喂给海量数据,不能推理,而事实上,人类的学习根本不是这个样子。我们更应该关注,如何让机器学会有限的经验和知识,然后运用规则进行推理。显然,AI理论需要重塑,nlp的道路任重道远!

但是本文并不打算全部论述逻辑推理,而是先从更加基础的领域阐述当下比较成功的联结主义,然后逐步过渡到逻辑推理,最后到两者的统一。本文不仅有广度,有深度,而且还会反思当下的AI。本文尤其重视AI中的数学知识,会涉及线代,矩阵论,微积分,现代数学之泛函数分析,这些都是准确深刻理解当下AI算法的基础,并且会思考这些算法的缺陷以及改进,让你对Ai的理解提升档次。因此本文的篇幅会非常地长,但保证没有废话,也不是简单的应用级别的文章。本着一以贯之的原则,最后会附上代码,安排如下:

一、联结主义概述(简单论述,不讲废话);

二、深度学习的激活函数性能对比,参数优化方法:①BP算法②激活函数③优化方法:遗传算法与模拟退火(重点大篇幅论述)

三、关于空间和时间的归纳偏置:CNN和LSTM。其中CNN包括:①数学上的卷积,卷积与傅立叶变换的关系,傅立叶变换(重点论述)②图像中的卷积③textCNN在nlp中的应用(包括代码)④CNN的缺陷及改进(重点论述)。LSTM部分:①从数学角度看RNN到LSTM的演化过程(重点论述)②LSTM的缺陷及改进:self_attention中的线性代数

四、图卷积神经网络:①为什么需要图卷积?②基础知识:拉普拉斯矩阵,傅立叶变换,pagerank算法③空间图卷积和谱图卷积

五、换一个角度理解上述算法(神经规则推理):关系,实体,规则,推理算法,知识图谱(包括transD向量化以及最近的改进),神经网络和图结构的统一,总结问题

六、常见深度学习的实例代码

1.联结主义概述

1.1

2.深度学习

2.1 经典的BP算法

2.2 激活函数性能对比

2.3 参数优化

2.3.1 SGD与自适应学习,5折交叉验证理论

2.3.2 你更需要遗传算法与模拟退火

3.关于空间和时间的归纳偏置

3.1经典的CNN

3.1.1 数学上的卷积,卷积与傅立叶变换的关系,傅立叶变换

3.1.2 图像中的卷积

3.1.2.1 图像卷积

3.1.2.2 CNN中的padding计算方法

3.1.3 把CNN引入到nlp中

3.1.4 CNN的缺陷以及改进方法

3.2 LSTM

3.2.1 RNN,从RNN到LSTM的演化

3.2.2 LSTM的缺陷以及改进

3.2.2.1 attention的种类:外部和self

4.图卷积神经网络

4.1为什么需要GCN?

4.2 基础知识:拉普拉斯矩阵,傅立叶变换,pagerank算法

4.2.1 拉普拉斯矩阵

4.2.2 pagerank算法

4.3 空间图卷积

4.4 谱图卷积

5.换一个角度理解现有的算法:你更需要神经规则推理

5.1 总述

5.2 关系,实体,规则

5.3 关于GN block以及与CNN,RNN的关系对比

5.4 算法的统一

5.5 知识图谱的向量化:transD以及改进

5.6 还有什么没有解决?

6.常见深度学习的实例代码

原文地址:https://www.cnblogs.com/txq157/p/9386407.html

时间: 2024-10-21 08:16:54

从联结主义到逻辑推理再到两者统一的相关文章

(转)神经网络和深度学习简史(第一部分):从感知机到BP算法

深度|神经网络和深度学习简史(第一部分):从感知机到BP算法 2016-01-23 机器之心 来自Andrey Kurenkov 作者:Andrey Kurenkov 机器之心编译出品 参与:chenxiaoqing.范娜Fiona.杨超.微胖.汪汪.赵巍 导读:这是<神经网络和深度学习简史>第一部分.这一部分,我们会介绍1958年感知机神经网络的诞生,70年代人工智能寒冬以及1986年BP算法让神经网络再度流行起来. 深度学习掀起海啸 如今,深度学习浪潮拍打计算机语言的海岸已有好几年,但是,

《具身认知》听书笔记

具身认知是在反对传统认知科学之偏误的基础上出现的.在传统的认知科学中,人的心智遭以简化为对自然.世界的准确镜像,认知活动在于摒弃.剔除身体的生理参与及经验的嵌入.具身认知真正把人视作“整全的人”,主张认知是大脑.身体与环境交互作用的产物,强调人的身心整全意义上的发展.它强调“具身性”与“情境化”,将对认知的认识从个体加工机制的探讨转向社会实践活动的分析:并认为认知结构具有时间属性,某一时刻的认知状态只是连续动态变化中的一个即时状态,因此主张把实验法和自然法融通起来,在真实.自然的情境中对认知过程

关于AI的一些观点

在1950年出版的<计算机器与智能>(Computing Mchinery and Intelligence)一书中,阿兰﹒图灵给出了判断智能的依据:如果一台机器可以使询问者不能分辨出该机器和人的回答,则可以说这台机器是智能的.图灵还认为,大脑是计算机的另一种形式.其支持者也认为人类的各种智能行为都是对抽象符号的复杂的处理,而计算机也能做到.杰夫﹒霍金斯,桑德拉﹒布拉克斯利(著),何俊杰,李若子,杨倩(译),人工智能的未来[M]. 图灵测试引起了广泛的争论,对此,本文倾向于塞尔的“中文屋”的观

“图灵测试”:中文屋论证”与智能

摘 要:人工智能自创立以来以其快速的发展不断逼近人类智能的领地,但在人工智能的背后,有很多难以解决的工程学及理论问题,从而引起很多争议,其中最多的就是机器能否思维.人工智能能否真正实现的问题.图灵测试及中文屋论证两个思想实验分别从不同理路论证了人工智能实现的可能性,从而揭示出智能的根本特征:意向性.只有给机器赋予了意向性,人工智能才有可能. 关键词:图灵测试:计算主义:中文屋:智能 人工智能自从20世纪50年代创立以来,取得了令人惊叹的成就.如IBM公司的吉宁特(Herbert Gelernte

《人工智能教程(张仰森)》(一)

这本书其实是大四最后的一门选修课,但是由于当时学的较为匆忙,而且这也是一本很不错的教科书,再加上自己以后研究生也是类似的研究方向了,所以现在拿出来再读了一遍.这本书共分为两篇(原理篇和应用篇),共十章,380页左右.值得一提的是,本书的两个作者(张仰森和黄改娟)的名气不大,但是本书的参考文献中却多次引用了如陆汝钤院士.史忠植教授等的教材,所以被高校广泛作为教材使用.自己也有幸在所里和史忠植老师见过面,并互通过邮件. 下面对这本书进行一个总结和梳理. 一.绪论         1. 人工智能的诞生

语义相似度(实践篇)

这篇文章,专门讲语义相似度问题. 先看场景: scene(一):用户通过大众点评,线上约了餐馆,就餐后在上面发表了很多评论,评论中涉及了大量的餐馆的问题,比如菜品质量,酒店卫生,服务等等.现在需要抽取之中的要点,然后反馈给商家. scene(二):KB_QA的两个问题:①获取question的语义表示②把语义表示转换成知识图谱的能够理解的语言逻辑形式.无论是核心推导链还是向量建模,核心都是question和answer的语义相似度问题. 虽然学术界对于语义相似度问题,都说是热点和难点,但是他到底

如何做研究?(From: MIT AI LAB)

简评: 这是一篇关于如何做研究的经验总结,全面阐述了研究过程中可能遇到的诸多问题,并给出了切实可行的建议!对于刚进入研究生阶段的研究生来说,我觉得可以为他们未来的研究生活提供很多有益的指导! 摘要: 本文的主旨是解释如何做研究.我们提供的这些建议,对做研究本身(阅读.写作和程序设计),理解研究过程以及开始热爱研究(方法论.选题.选导师和情感因素),都是极 具价值的. 本文背景: 麻省理工学院 人工智能实验室 AI Working Paper 316 1988年10月来自MIT人工智能实验室:如何

Deep Learning(Ian Goodfellow) — Chapter1 Introduction

Deep Learning是大神Ian GoodFellow, Yoshua Bengio 和 Aaron Courville合著的深度学习的武功秘籍,涵盖深度学习各个领域,从基础到前沿研究.因为封面上有人工智能生成的鲜花图像,人送外号"花书" .该书系统地介绍了深度学习的基础知识和后续发展,是一本值得反复读的好书. 这里根据书的框架做笔记如下,方便以后回顾阅读,加油!!! 1.0  引言 什么是machine learning?在原始的AI系统中,定义不同的case使用不同的解决方法

深度学习“深度学习”-概念篇

Q:什么是"深度学习" 对于"深度学习"这个术语,一个粗浅的定义是"主要使用深度神经网络为工具的机器学习算法".深度学习首先是一类机器学习的方法,因为它和其他机器学习方法一样允许计算机从样本中.从实例中.从数据中使用统计手段"学习"出规律来,而不用像专家系统和其他符号主义的方法一样人工定义规则.其次,深度学习不同于其他机器学习方法的地方,在于它主要的工具,或者说使用到的数学模型是深度神经网络. 虽说深度学习这个词时近几年才后起