【转载】Andrew ng清华报告听后感

Andrew ng清华报告听后感

(2013-03-26 23:05:40)

转载▼

   

Andrew ng今天来清华作报告,我就几点重要的内容,谈谈理解和想法。

1)特征表示的粒度

学习算法在一个什么粒度上的特征表示,才有能发挥作用?就一个图片来说,像素级的特征根本没有价值,无法进行摩托车正例和负例的区分,而如果特征是一个具有结构性(或者说有含义)的时候,比如是否具有handlebars,是否具有wheel,就很容易把正例和负例区分,学习算法才能发挥作用。

2)初级(浅层)特征表示

既然像素级的特征表示方法,没有作用,什么有作用呢?

ng报告中说sparse coding的方法,也就是复杂图形,往往由有些基本结构组成,比如色彩可以由三原色按照一定的配比调成。ng给了一个图用64种正交的edges(可以理解成正交的基本结构)线性的表示。比如样例的x可以用1-64个edges中的三个按照0.8,0.3,0.5的权重调和而成。而其他基本edge没有贡献,因此均为0

当然,如何发现这64个正交的结构,没有进一步阐明,同时后面还提出了某论文从未标注的声音中发现了20种基本的声音结构,其余的声音可以由这20种基本结构合成。

3)结构性特征表示

小块的图形可以由基本edge构成,更结构化,更复杂的,具有概念性的图形如何表示呢?这就需要更高层次的特征表示,比如V2,V3。因此V1看像素级是像素级。V2看V1是像素级,这个是层次递进的,就好像高中生看初中生naive,大学生看高中生naive一样。

4)需要有多少个特征?

我们知道需要层次的特征构建,有浅入深,但每一层该有多少个特征呢?

ng表示,任何一种方法,只要特征足够多,效果总能提高,但特征多意味着计算复杂,探索的空间大,可以用来训练的数据在每个特征上就会稀疏,都会带来各种问题,并不一定特征越多越好。

从文本来说,文本这个概念或者说一句话,一个doc表示什么意思这件事情,用什么来表示比较合适?用一个一个字嘛,我看不是,字就是像素级别了,起码应该是term,换句话说每个doc都由term构成,但这样表示概念的能力就够了嘛,可能也不够,需要再上一步,达到topic级,有了topic,再到doc就合理。但每个层次的数量差距很大,比如doc表示的概念->topic(千-万量级)->term(10万量级)->word(百万量级)。

一个人在看一个doc的时候,眼睛看到的是word,由这些word在大脑里自动切词形成term,在按照概念组织的方式,先验的学习,得到topic,然后再进行高层次的learning。

从报告还可以看出,谷歌公司在图像,声音方面投入了巨大的力量,而且机器学习,deep learning应该在图像和声音上,有巨大的机会。

另外deep的含义就是多层神经元网络,每一层代表一种层次的概念,越往下概念的正交性越好,越往上概念的正交性越差,越具有相似度。因为高层概念彼此可能互相包含了相同的基本结构。

高层概念分离出基本结构的方法也很容易理解,就是打散了聚类,比如doc可以通过LDA的方法搞出topic,有限个topic就可以描述一个doc,topic内部还可以通过类似的方法,再打散了聚类,得到更浅层的topic,这个可以试验试验,ng没有细说,我感觉是这样。

ng的报告ppt没有流出,找了个比较接近的,供大家系统学习:http://www.ipam.ucla.edu/publications/gss2012/gss2012_10595.pdf

2014年7月Andrew Ng 于自动化所再做报告,我又写了篇听后感,供大家参考:http://blog.sina.com.cn/s/blog_593af2a70102uwhl.html

时间: 2024-10-12 04:39:38

【转载】Andrew ng清华报告听后感的相关文章

Andrew ng清华报告听后感

Andrew ng今天来清华作报告,我就几点重要的内容,谈谈理解和想法. 1)特征表示的粒度 学习算法在一个什么粒度上的特征表示,才有能发挥作用?就一个图片来说,像素级的特征根本没有价值,无法进行摩托车正例和负例的区分,而如果特征是一个具有结构性(或者说有含义)的时候,比如是否具有handlebars,是否具有wheel,就很容易把正例和负例区分,学习算法才能发挥作用. 2)初级(浅层)特征表示 既然像素级的特征表示方法,没有作用,什么有作用呢? ng报告中说sparse coding的方法,也

【转载】2014-7 Andrew Ng 自动化所报告听后感

2014-7 Andrew Ng 自动化所报告听后感 (2014-07-07 12:03:18) 转载▼ 标签: 机器学习 深度学习 andrewng   一早出发,8点20就赶到现场, 人越聚越多,Ng提前几分钟到达现场,掌声一片. Ng的报告总体上提到了五个方向. 1)Deep Learning相比于传统方法的优势 首先,一个很直观的图,随着训练量的提高,传统方法很快走到天花板,而Deep Learning的效果还能持续走高,后来这个在提问环节也有同学问道,是否会一直提高,Andrew Ng

关于“西方当代艺术中的拼贴创作手段的演进”听后感

基于正好是周末,然后暂时找不到人一起去看速7,正好无聊刷网页时候发现了这个活动,心想正好可以提升一下我那基本为0的艺术细胞,(我会说是为以后升职产品经理打好基础吗~ -.-).于是就晃晃悠悠的晃过去了.先来介绍下主题    关于讲座 讲座将从Mark Bradford 的艺术谈及拼贴创作手段近一个世纪的演变.拼贴手段涉及两个基本要素,第一是将一个完整的形状切成碎片再重新组合,诚如我们从二十世纪初的立体派艺术中所 看到的.第二是拼贴的碎片媒材一旦不是抽象形式而是实物碎片的话,作品就成为日常生活各种

中国传统文化讲座听后感

在思维方式上,强调整体性.和谐性.统一性,是中华传统文化的显著特征.而从先秦的“天人合一”论到宋明的“万物一体”论,则是这一特征的集中体现.我们的祖先在商周之际就开始了对天人关系的探讨和阐发.注重人与天.人与社会.人与自然的统一和协调,即“天人合一”观念成为中国传统文化的主流观念.儒家经典<周易>有云:“有天地然后有万物,有万物然后有男女,有男女然后有夫妇,有妇夫然后有父子,有父子然后有君臣,有君臣然后有上下,有上下然后礼仪有所错.”天地.万物以及以礼仪为行为规范的人群是一个完整的统一体,而天

Andrew Ng机器学习课程笔记(五)之应用机器学习的建议

Andrew Ng机器学习课程笔记(五)之 应用机器学习的建议 版权声明:本文为博主原创文章,转载请指明转载地址 http://www.cnblogs.com/fydeblog/p/7368472.html 前言 学习了Andrew Ng课程,开始写了一些笔记,现在写完第5章了,先把这5章的内容放在博客中,后面的内容会陆续更新! 这篇博客主要记录了Andrew Ng课程第五章应用机器学习的建议,主要介绍了在测试新数据出现较大误差该怎么处理,这期间讲到了数据集的分类,偏差,方差,学习曲线等概念,帮

Logistic Regression &amp; Regularization ----- Stanford Machine Learning(by Andrew NG)Course Notes

coursera上面Andrew NG的Machine learning课程地址为:https://www.coursera.org/course/ml 我曾经使用Logistic Regression方法进行ctr的预测工作,因为当时主要使用的是成型的工具,对该算法本身并没有什么比较深入的认识,不过可以客观的感受到Logistic Regression的商用价值. Logistic Regression Model A. objective function       其中z的定义域是(-I

Andrew Ng Machine Learning - Week 1: Introduction

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记.力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 1: Introduction Environment Setup Instructions 这一章介绍课程一般使用的工具.octave或者matlab即

Andrew Ng Machine Learning - Week 2

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记.力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 2 Multivariate Linear Regression Week 1 讨论仅一个特征,即仅有一个未知量x影响了目标y的取值.如果现在有很多特征?

Andrew Ng Machine Learning - Week 4 &amp; 5- Neural Networks

此文是斯坦福大学,机器学习界 superstar - Andrew Ng 所开设的 Coursera 课程:Machine Learning 的课程笔记.力求简洁,仅代表本人观点,不足之处希望大家探讨. 课程网址:https://www.coursera.org/learn/machine-learning/home/welcome Week 1: Introduction 笔记:http://blog.csdn.net/ironyoung/article/details/46845233 We