深度学习还有哪些鲜为人知的潜力?

深度学习2011年最开始火的时候(Hinton),人们会认为deep learning(DL) 约等于convolutional neural network(CNN), 这是一个有监督学习的图像识别工具;
然后出现了词向量(word2vec),人们开始觉得DL还能解决一部分NLP问题
然后long short term memory (LSTM)突然比较成功,人们开始觉得DL还能做时间序列预测和序列识别
然后Deepmind发表了Deep Q-Network(DQN), 人们开始觉得DL还能做运动控制
等等
总之截止到今年,DL给人的印象就是
1、负责底层信号处理的(视觉,语音,文字)分类器

到这个时候,DL似乎还解决不了很多问题,比如?

大众媒体会给人一种印象,认为DL只是在高维数据的分类上略有优势。然而RNN理论上可以拟合所有信息过程,包括程序,逻辑,基于符号的推理,世界模型推演,情绪,审美,创造力,精细运动;而今天RNN还并没有被用来拟合这些程序和过程


认为仅仅因为我们无法获取相关任务的有效训练集。我们可以从互联网上获取大量图片、文本,这些外显的数据构成了训练神经网络的原料。但是我们不会分享编
程、逻辑推理时全部思维的细节;此外,人脑会把语言符号通过一些先验知识和过程翻译成中间信息,这些中间信息的缺乏使训练集变得无效。因此自下而上地构建
智能系统是唯一的选择
1、世界模型推演,或常识;当杯子移出桌子的边缘,人脑会知道它下一秒钟会掉下去。训练这个过程的训练集依赖底层数据的表征方式,而目前DL的问题在于缺乏一种对来自底层(图片)概念的统一的表征方式,我把这个问题称为DL的[底层表征瓶颈]。
2、情绪和审美,人们会先入为主地认为计算机是理性的,与情绪无关,然而人类可以通过表情、语调把自己的情绪外显地表露出来,通过收集这些训练集很容易就能建立起从状态到情绪的映射,使计算机拥有情绪。
3、
创造力的本质是数据的微调和重组,由于对遗传算法和模拟退火之类的优化过程的不熟悉,人们会误以为创造力是非常NB的智能活动。真实世界的创造有两个前
提:如何拆分原始数据是重组的前提(识别问题)对结果的评估函数(评价函数拟合问题),这两个问题都是DL可以解决的。
4、基于符号(原子表征)的推理(取代决策树),比如IBM的watson诊断系统,仍然依赖于许多原子表征的推理。为什么这种东西至今没有被DL取代?
5、精细运动;人类的每块肌肉的运动是内隐的;需要重新训练,人类的运动依赖模仿(底层表征瓶颈),强化学习(底层表征瓶颈),对奖励的时间序列预测(底层表征瓶颈)

如果我们把来自底层的信号建立起统一的表征机制,就会形成统一的概念;DL可以做任意概念组合之间的映射而不仅仅是基于原始图像或语音的分类。

时间: 2024-08-05 08:29:34

深度学习还有哪些鲜为人知的潜力?的相关文章

深度学习论文翻译解析(五):Siamese Neural Networks for One-shot Image Recognition

论文标题:Siamese Neural Networks for One-shot Image Recognition 论文作者: Gregory Koch   Richard Zemel Ruslan Salakhutdinov 论文地址:https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf 声明:小编翻译论文仅为学习,如有侵权请联系小编删除博文,谢谢! 小编是一个机器学习初学者,打算认真研究论文,但是英文水平有限,所以论文翻译中用到了Goo

TensorFlow实现基于深度学习的图像补全

目录 ■ 简介 ■ 第一步:将图像理解为一个概率分布的样本 你是怎样补全缺失信息的呢? 但是怎样着手统计呢?这些都是图像啊. 那么我们怎样补全图像?  ■ 第二步:快速生成假图像 在未知概率分布情况下,学习生成新样本 [ML-Heavy] 生成对抗网络(Generative Adversarial Net, GAN) 的架构 使用G(z)生成伪图像 [ML-Heavy] 训练DCGAN 现有的GAN和DCGAN实现 [ML-Heavy] 在Tensorflow上构建DCGANs 在图片集上跑DC

关于机器学习和深度学习的资料

声明:转来的,原文出处:http://blog.csdn.net/achaoluo007/article/details/43564321 编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等.而且原文也会不定期的更新,望看到文章的朋友能够学到更多. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林.Deep Learning. &

对比深度学习十大框架:TensorFlow 并非最好?

http://www.oschina.net/news/80593/deep-learning-frameworks-a-review-before-finishing-2016 TensorFlow 链接:https://www.tensorflow.org/ 对于那些听说过深度学习但还没有太过专门深入的人来说,TensorFlow 是他们最喜欢的深度学习框架,但在这里我要澄清一些事实. 在 TensorFlow 的官网上,它被定义为「一个用于机器智能的开源软件库」,但我觉得应该这么定义:Te

深度学习与计算机视觉(12)_tensorflow实现基于深度学习的图像补全

原文地址:Image Completion with Deep Learning in TensorFlow by Brandon Amos 原文翻译与校对:@MOLLY && 寒小阳 ([email protected]) 时间:2017年4月. 出处:http://blog.csdn.net/han_xiaoyang/article/details/52665396 声明:版权所有,转载请联系作者并注明出 简介 第一步:将图像理解为一个概率分布的样本 你是怎样补全缺失信息的呢? 但是怎

(转)深度学习前沿算法思想

深度学习前沿算法思想 本文转自: https://mp.weixin.qq.com/s?__biz=MzA5NDExMTAzNA==&mid=2649981646&idx=2&sn=8fe05eac5a5068efb65ca1602e5fd3a0&chksm=8854b69bbf233f8db5dbaa1ea8396d181c9a35e760ab3c1c4934b504f69fe92683972d78d327&mpshare=1&scene=2&sr

深度学习算法索引(持续更新)

https://zhuanlan.zhihu.com/p/26004118 机器学习最近几年发展如同野兽出笼,网上的资料铺天盖地.学习之余建立一个索引,把最有潜力(不求最全)的机器学习算法.最好的教程.贴近工业界最前沿的开源代码收录其中.个人能力有限,希望知友指正和补充. Model篇 1. Reinforcement Learning 领军人物:david silver 教程 2015年david silver的UCL Course on RL:Teaching david silver的Tu

深度学习“引擎”之争:GPU加速还是专属神经网络芯片?

深度学习“引擎”之争:GPU加速还是专属神经网络芯片? 深度学习(Deep Learning)在这两年风靡全球,大数据和高性能计算平台的推动作用功不可没,可谓深度学习的“燃料”和“引擎”,GPU则是引擎的引擎,基本所有的深度学习计算平台都采用GPU加速.同时,深度学习已成为GPU提供商NVIDIA的一个新的战略方向,以及3月份的GTC 2015的绝对主角. 那么,GPU用于深度学习的最新进展如何?这些进展对深度学习框架有哪些影响?深度学习开发者应该如何发挥GPU的潜力?GPU与深度学习结合的前景

[译]2016年深度学习的主要进展(译自:The Major Advancements in Deep Learning in 2016)

译自:The Major Advancements in Deep Learning in 2016 建议阅读时间:10分钟 https://tryolabs.com/blog/2016/12/06/majoradvancementsdeeplearning2016/ 在过去的十多年来,深度学习一直是核心话题,2016年也不例外.本文回顾了他们认为可能会推动这个领域发展或已经对这个领域产生巨大贡献的技术.(1)无监督学习有史以来便是科研人员所面临的的主要挑战之一.由于大量产生式模型的提出,201