AI技术说:人工智能相关概念与发展简史

作者:个推大数据科学家朱金星

作为近几年的一大热词,人工智能一直是科技圈不可忽视的一大风口。随着智能硬件的迭代,智能家居产品逐步走进千家万户,语音识别、图像识别等AI相关技术也经历了阶梯式发展。如何看待人工智能的本质?人工智能的飞速发展又经历了哪些历程?本文就从技术角度为大家介绍人工智能领域经常提到的几大概念与AI发展简史。

一、人工智能相关概念
1、人工智能(Artifical Intelligence, AI):就是让机器像人一样的智能、会思考,
是机器学习、深度学习在实践中的应用。人工智能更适合理解为一个产业,泛指生产更加智能的软件和硬件,人工智能实现的方法就是机器学习。

2、数据挖掘:数据挖掘是从大量数据中提取出有效的、新颖的、有潜在作用的、可信的、并能最终被人理解模式(pattern)的非平凡的处理过程。

数据挖掘利用了统计、机器学习、数据库等技术用于解决问题;数据挖掘不仅仅是统计分析,而是统计分析方法学的延伸和扩展,很多的挖掘算法来源于统计学。

3、机器学习:专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,机器学习是对能通过经验自动改进的计算机算法的研究。

机器学习是建立在数据挖掘技术之上发展而来,只是数据挖掘领域中的一个新兴分支与细分领域,只不过基于大数据技术让其逐渐成为了当下显学和主流。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。

4、深度学习(Deep Learning):是相对浅层学习而言的,是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络。它模仿人脑的机制来解释数据,例如图像,声音和文本。深度学习的概念源于人工神经网络的研究。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。

到了当下,经过深度学习技术训练的机器在识别图像方面已不逊于人类,比如识别猫、识别血液中的癌细胞特征、识别MRI扫描图片中的肿瘤。在谷歌AlphaGo学习围棋等等领域,AI已经超越了人类目前水平的极限。

为了方便大家理解,我们将上文提到的四个概念的关系用下图表示。需要注意的是,图示展现的只是一种大致的从属关系,其中数据挖掘与人工智能并不是完全的包含关系。

二、人工智能发展历史

(图片来源于网络)

由图可以明显看出Deep Learning从06年崛起之前经历了两个低谷,这两个低谷也将神经网络的发展分为了几个不同的阶段,下面就分别讲述这几个阶段。

1、 第一代神经网络(1958-1969)

最早的神经网络的思想起源于1943年的MP人工神经元模型,当时是希望能够用计算机来模拟人的神经元反应的过程,该模型将神经元简化为了三个过程:输入信号线性加权,求和,非线性激活(阈值法)。如下图所示:

1958年Rosenblatt发明的感知器(perceptron)算法。该算法使用MP模型对输入的多维数据进行二分类,且能够使用梯度下降法从训练样本中自动学习更新权值。1962年,该方法被证明为能够收敛,理论与实践效果引起第一次神经网络的浪潮。

1、 第二代神经网络(1986~1998)

第一次打破非线性诅咒的当属现代Deep Learning大牛Hinton,其在1986年发明了适用于多层感知器(MLP)的BP算法,并采用Sigmoid进行非线性映射,有效解决了非线性分类和学习的问题。该方法引起了神经网络的第二次热潮。

1989年,Robert Hecht-Nielsen证明了MLP的万能逼近定理,即对于任何闭区间内的一个连续函数f,都可以用含有一个隐含层的BP网络来逼近该定理的发现极大的鼓舞了神经网络的研究人员。

同年,LeCun发明了卷积神经网络-LeNet,并将其用于数字识别,且取得了较好的成绩,不过当时并没有引起足够的注意。

值得强调的是在1989年以后由于没有特别突出的方法被提出,且神经网络(NN)一直缺少相应的严格的数学理论支持,神经网络的热潮渐渐冷淡下去。

1997年,LSTM模型被发明,尽管该模型在序列建模上的特性非常突出,但由于正处于NN的下坡期,也没有引起足够的重视。

3、统计学建模的春天(1986~2006)

1986年,决策树方法被提出,很快ID3,ID4,CART等改进的决策树方法相继出现。

1995年,线性SVM被统计学家Vapnik提出。该方法的特点有两个:由非常完美的数学理论推导而来(统计学与凸优化等),符合人的直观感受(最大间隔)。不过,最重要的还是该方法在线性分类的问题上取得了当时最好的成绩。

1997年,AdaBoost被提出,该方法是PAC(Probably Approximately Correct)理论在机器学习实践上的代表,也催生了集成方法这一类。该方法通过一系列的弱分类器集成,达到强分类器的效果。

2000年,KernelSVM被提出,核化的SVM通过一种巧妙的方式将原空间线性不可分的问题,通过Kernel映射成高维空间的线性可分问题,成功解决了非线性分类的问题,且分类效果非常好。至此也更加终结了NN时代。

2001年,随机森林被提出,这是集成方法的另一代表,该方法的理论扎实,比AdaBoost更好的抑制过拟合问题,实际效果也非常不错。

2001年,一种新的统一框架-图模型被提出,该方法试图统一机器学习混乱的方法,如朴素贝叶斯,SVM,隐马尔可夫模型等,为各种学习方法提供一个统一的描述框架。

4、快速发展期(2006~2012)

2006年,深度学习(DL)元年。是年,Hinton提出了深层网络训练中梯度消失问题的解决方案:无监督预训练对权值进行初始化+有监督训练微调。其主要思想是先通过自学习的方法学习到训练数据的结构(自动编码器),然后在该结构上进行有监督训练微调。但是由于没有特别有效的实验验证,该论文并没有引起重视。

2011年,ReLU激活函数被提出,该激活函数能够有效的抑制梯度消失问题。

2011年,微软首次将DL应用在语音识别上,取得了重大突破。

5、爆发期(2012~至今)

2012年,Hinton课题组为了证明深度学习的潜力,首次参加ImageNet图像识别比赛,其通过构建的CNN网络AlexNet一举夺得冠军,且碾压第二名(SVM方法)的分类性能。也正是由于该比赛,CNN吸引到了众多研究者的注意。

AlexNet的创新点:

(1)首次采用ReLU激活函数,极大增大收敛速度且从根本上解决了梯度消失问题;

(2)由于ReLU方法可以很好抑制梯度消失问题,AlexNet抛弃了“预训练+微调”的方法,完全采用有监督训练。也正因为如此,DL的主流学习方法也因此变为了纯粹的有监督学习;

(3)扩展了LeNet5结构,添加Dropout层减小过拟合,LRN层增强泛化能力/减小过拟合;

(4)首次采用GPU对计算进行加速。

结语:作为21世纪最具影响力的技术之一,人工智能不仅仅在下围棋、数据挖掘这些人类原本不擅长的方面将我们打败,还在图像识别、语音识别等等领域向我们发起挑战。如今,人工智能也在与物联网、量子计算、云计算等等诸多技术互相融合、进化,以超乎我们想象的速度发展着。而这一切的发生与演变,只用了几十年的时间……

原文地址:http://blog.51cto.com/13031991/2107982

时间: 2024-10-01 11:26:32

AI技术说:人工智能相关概念与发展简史的相关文章

数据库技术的发展简史

http://blog.csdn.net/willtongji/article/details/52874627 学习大数据,需要知道"传统"的数据管理技术,了解了数据库管理技术的发展简史,你就知道哪些技术在大数据时代任然有用,以及新技术到底新在哪里~ 数据库系统的研究和开发从20世纪60年代中期开始到现在,几十年过去了,经历三代演变,取得了十分辉煌的成就:造就了C.W. Bachman(巴克曼).E.F.Codd(考特)和J. Gray(格雷)三位图灵奖得主:发展了以数据建模和数据库

(原创)我对未来的人类的发展,以及AI技术发展的一些思考。

最近AI非常的火,不仅仅是阿尔法狗的成功,因为它击败了人类最强的大脑,颠覆了人类几千年来的对传统的认识,也让人类意识 到了一个问题:天外有天,人外有AI. 那么AI究竟会对人类的未来造成什么深远的影响呢?它又将怎么改变人类的生活呢?我来列举几个阶段性的东西,希望能给大家一些思考和启发. 近期:AI其实我个人感觉10年前并不是很火,但是最近突然火了起来,主要的发展还是在图片识别了文字识别方面,比如最明显的东西就是谷歌翻译现在越来越准了,这都可以理解为深度学习的一些成功. 第一个100年 1.我个人

回顾2018年的AI技术发展,巨头公司正面临着越来越多的限制

在过去的几年中,来自全球的科技公司.各路资本和政府等在 AI 技术上的投入让相关领域取得了飞速发展. 当这 AI 技术在不断成熟并逐渐开始进入人们的生活中时,一些由新技术带来的安全.平等问题开始更加被人们重视. 有意思的是,在 2018 年开始,除了继续推动技术发展,各大科技公司纷纷开始对 AI 技术的应用进行不同程度的限制. 以谷歌为例,美国防部 2017 年宣布成立"Maven 计划"(Project Maven),这一计划也被视为是将 AI 技术引入战场.2018 年 4 月,在

Linux发展简史

一.Linux发展简史 1.1969年以前:Bell,MIT与GE的"Mutics"系统 Bell:贝尔实验室,隶属于AT&T公司 MIT:麻省理工学院 GE:通用电气公司 Mutics:有"多数"的意思,意在让多人同时使用一台主机的资源(多用户) ·60年代初,MIT开发出分时操作系统,最多同时提供30台终端机(技术上的限制)连接一台大型主机,以让更多用户可以同时使用同一台昂贵主机的资源: ·1965年,Bell.MIT与GE共同发起Mutics项目,目的

Intel CPU 发展简史

Intel CPU 发展简史 1971年11月15日:4004 1971年11月15日,Intel公司的工程师霍夫发明了世界上第一个商用微处理器-4004.这款4位微处理器集成了2250个晶体管,晶体管之间的距离是10微米,能够处理4bit的数据,每秒运算6万次,频率为108KHz,前端总线为0.74MHz (4bit).原为日本Busicom公司的计数器开发. 编号为4004,第一个"4"代表此芯片是客户订购的产品编号,后一个"4"代表此芯片是英特尔公司制作的第四

云技术平台赋能媒体融合发展创新

欢迎大家前往腾讯云技术社区,获取更多腾讯海量技术实践干货哦~ 作者:熊普江 媒体行业是传统而又新兴的行业,在数字化.信息化.移动化快速演进的今天,无论是用户.社会还是行业.政府都意识到,传统媒体与新兴媒体融合发展是必然之路.但媒体融合需要内容和技术双驱动,内容是硬道理,技术是生产力.融合并不是简单的内容复制和粘贴,需要有一个促使融合从梦想到现实的因子,这个因子就是技术. 2016年人民日报媒体技术股份有限公司联合腾讯云共同发布了我国首个媒体融合云服务平台------中国媒体融合云,意在为媒体融合

2018年度10大新兴技术:人工智能、量子计算、增强现实等

https://mp.weixin.qq.com/s/FEhGUixl00knNOu14sdbTg 9月19日,世界经济论坛和<科学美国人>联合发布了2018年度十大新兴技术榜单,人工智能及生物医药.新材料领域的技术入围,其中多项技术有望为治疗癌症带来新的解决办法.这些技术被认为在未来3~5年会对社会与经济产生重要影响. <科学美国人>与世界经济论坛联合发布了 2018 年全球十大新兴技术.这份榜单由<科学美国人>.<科学美国人>全球顾问委员会.世界经济论坛

千人千面、个性化推荐,解读数据赋能商家背后的AI技术

12月6-7日,由阿里巴巴集团.阿里巴巴技术发展部.阿里云云栖社区联合主办,以"2016 双 11 技术创新"为主题的阿里巴巴技术论坛,来自商家事业部的技术总监魏虎给大家分享了数据赋能商家背后的AI技术.首先对大数据和人工智能进行了简要介绍,接着着重分析了客户运营平台,包括实时分群算法.match和rank框架以及千人千面技术,最后讲解了千牛头条.服务市场和智能客服中AI技术的应用. 背景介绍 大数据 大数据主要有四个特征:Volume(大量).Value(价值).Velocity(速

计算工具的发展简史

现在我们所说的计算机,其全称是通用电子数字计算机,"通用"是指计算机可服务于多种用途,"电子"是指计算机是一种电子设备,"数字"是指在计算机内部一切信息均用0和1的编码来表示.计算机的出现是20世纪最卓越的成就之一,计算机的广泛应用极大地促进了生产力的发展. 自古以来,人类就在不断地发明和改进计算工具,从古老的"结绳记事",到算盘.计算尺.差分机,直到1946年第一台电子计算机诞生,计算工具经历了从简单到复杂.从低级到高级.从