【深度学习学习记录】之一:开篇闲扯一些话

深度学习的历史可谓是一波三折,而就在最近阿尔法狗战胜李世乭,让深度学习再次回到人们的视线。

我对深度学习的真正意义上的认识,还得从2016.05.26日的一节课上说起。

讲课老师是信科软工所的李戈老师,他是一位较年轻的副教授,讲课风趣幽默,看上去很健谈,喜欢笑。

这位老师在三个小时的课程中,带领我们从只是听说过深度学习到对深度学习有个大致了解。全程我都非常认真的听了,这种感受已经在大三之后都几乎没有过了,我认为一方面是老师讲课的方式非常吸引人,另一方面是兴趣使然,我对人工智能方面还是非常感兴趣的。

对老师的讲课内容做了一个粗略的梳理,内容如下:


1、神经网络:

神经元:存储状态,传递信号

神经元状态:非激活/激活

2、基础:线代、高数、概率论

3、线性性质:相对关系不会变化,不能进行分类,因此监督式学习不能采用线性变化

线性函数:一个向量 * 一个矩阵,结果是将向量进行基变换,但是向量中的数据的相对位置不会发生变化、

非线性函数:非常重要!!!!!!!!!

4、多个神经元组成神经网络

5、神经网络的能力:隐藏层的数量,隐藏层越多,神经网络的能力越强。

多层神经网络结构:       输入层   :隐藏层   :···  : 输出层

一个神经网络的层数:隐藏层层数+输出层(不含输入层)

6、Why deep?

1)仿生学角度:大脑皮层是有厚度的区分的

2)认知学角度:hubel wiesel试验 / 稀疏编码算法

输入 —> Low-Level Feature —>Mid-Level Feature —> High-Level Feature —> 输出

普遍特征—> 深度学习 —>抽象特征

抽象:不是直观可以获得的。

举例:通过考试分数来判断学生的学习能力,这是简单的特征抽取;但是通过考试分数来判断一个人的性格,则是抽象特征抽取。

前者对应简单神经网络,后者对应深度神经网络。

7、深度学习缺点:training过程复杂,计算量大

8、反向传播算法:back-propagation

梯度下降算法:局部最优特性

问题:梯度消失、梯度爆炸

9、深度神经网络的对头:SVM(核函数),SVM缺点:没有完全利用数据的维度;需要经过人工筛选特征,依赖于先验知识;can’t contain hierarchial structure

10、Hinton 2016

Basic papers on deep learning

Movies of the neutral  network

ImageNet

11、深度学习在近年来又重新热门的原因:

  1)计算能力增强

  2) 数据集的增加

12、NLP:word2vec,依存树


记录的内容非常零散,根据老师所讲的内容。

时间: 2024-12-15 01:38:58

【深度学习学习记录】之一:开篇闲扯一些话的相关文章

复现深度强化学习论文经验之谈

近期深度强化学习领域日新月异,其中最酷的一件事情莫过于 OpenAI 和 DeepMind 训练智能体接收人类的反馈而不是传统的奖励信号.本文作者认为复现论文是提升机器学习技能的最好方式之一,所以选择了 OpenAI 论文<Deep Reinforcement Learning from Human Preferences>作为 target,虽获得最后成功,却未实现初衷.如果你也打算复现强化学习论文,那么本文经验也许是你想要的.此外,本文虽对强化学习模型的训练提供了宝贵经验,同时也映射出另外

复现一篇深度强化学习论文之前请先看了这篇文章!

去年,OpenAI和DeepMind联手做了当时最酷的实验,不用经典的奖励信号来训练智能体,而是根据人类反馈进行强化学习的新方法.有篇博客专门讲了这个实验 Learning from Human Preferences,原始论文是< Deep Reinforcement Learning from Human Preferences>(根据人类偏好进行的深度增强学习). 链接:https://arxiv.org/pdf/1706.03741.pdf 过一些深度强化学习,你也可以训练木棍做后空翻

论文:利用深度强化学习模型定位新物体(VISUAL SEMANTIC NAVIGATION USING SCENE PRIORS)

这是一篇被ICLR 2019 接收的论文.论文讨论了如何利用场景先验知识 (scene priors)来定位一个新场景(novel scene)中未曾见过的物体(unseen objects).举例来说,在「厨房」这一场景中,有一张图片显示「苹果」在冰箱的储物架上,同为水果的物体,如「橙子」,会出现在场景的哪个位置呢?论文提出了用基于强化学习的方法来定位「橙子」. 论文:VISUAL SEMANTIC NAVIGATION USING SCENE PRIORS 论文作者:Wei Yang , X

Activiti 学习笔记记录(三)

上一篇:Activiti 学习笔记记录(二) 导读:上一篇学习了bpmn 画图的常用图形标记.那如何用它们组成一个可用文件呢? 我们知道 bpmn 其实是一个xml 文件

舌尖上的安卓(android触控事件机制学习笔记录)

对于一个"我们从来不生产代码,我们只是大自然代码的搬运工"的码农来说.对android的触控机制一直是模棱两可的状态,特别是当要求一些自定义的控件和androide的自带控件(比如ViewPager,ListView,ScrollView)高度嵌套在一起使用时. 花了点时间梳理了下,做个笔记.对于一个触控的事件从用户输入到传递到Actigvity到最外层的Viewgroup在到子View,中间过程还可能穿插多个Viewgroup,android在ViewGroup提供了3个方法来控制流

django book学习问题记录

—————————————————————————————————— 位置:第五章<模型> 问题描述: >>> p1 = Publisher.objects.create(name='Apress', ... address='2855 Telegraph Avenue', ... city='Berkeley', state_province='CA', country='U.S.A.', ... website='http://www.apress.com/') >

深度强化学习(Deep Reinforcement Learning)入门:RL base &amp; DQN-DDPG-A3C introduction

转自https://zhuanlan.zhihu.com/p/25239682 过去的一段时间在深度强化学习领域投入了不少精力,工作中也在应用DRL解决业务问题.子曰:温故而知新,在进一步深入研究和应用DRL前,阶段性的整理下相关知识点.本文集中在DRL的model-free方法的Value-based和Policy-base方法,详细介绍下RL的基本概念和Value-based DQN,Policy-based DDPG两个主要算法,对目前state-of-art的算法(A3C)详细介绍,其他

Activiti 学习笔记记录(二)

上一篇:Activiti 学习笔记记录 导读:对于工作流引擎的使用,我们都知道,需要一个业务事件,比如请假,它会去走一个流程(提交申请->领导审批---(批,不批)---->结束),Activiti就是来走这个流程的.所以我们还需要将Activiti 和 业务结合起来,即部署定义(画一个流程图,生成 bpmn 格式的文件).本章,就来讲 bpmn 的图怎么画? 一.什么是 bpmn 业务流程建模标记法 BPMN (Business Process Model and Notation),是工作

(转) 深度增强学习与通用人工智能

深度增强学习前沿算法思想 CSDN 作者: Flood Sung 2017-02-16 09:34:29 举报 阅读数:3361 作者: Flood Sung,CSDN博主,人工智能方向研究生,专注于深度学习,增强学习与机器人的研究. 责编:何永灿,欢迎人工智能领域技术投稿.约稿.给文章纠错,请发送邮件至[email protected]本文为<程序员>原创文章,未经允许不得转载,更多精彩文章请订阅2017年<程序员>? 2016年AlphaGo计算机围棋系统战胜顶尖职业棋手李世石