CS224d lecture 16札记

欢迎转载,转载注明出处:

http://blog.csdn.net/neighborhoodguo/article/details/47617297

终于把最后一讲也看完了,stanford的NLP课程也接近了尾声,真的是非常的开心,这门课真的让我收获了很多。

这一课讲得就是DL在NLP方面的应用,其实大部分内容在之前的课上和之前的推荐阅读里都有提及,这一课也算是一门复习课吧。

同样的先overview一下:1.Model overview  2.Character RNNs on text and code  3.Morphology  4.Logic  5.Q&A  6.Image - Sentence mapping

Model overview

老师在课上极力推荐Glove

word vector的维度经常决定了模型的参数数量

Phrase Vector Composition的表示方式主要有Averaging, Recursive Neural networks, Convolutional neural networks, Recurrent neural network

其中很多Recursive functions都是MV-RNN的变种

其中Parsing tree主要分为三种:第一种是Constituency Tree对于syntactic structure的捕捉很有优势  第二种是Depenency Tree对于semantic structure的捕捉很有优势

第三种是Balanced Tree非常类似CNN

Objective function主要有三种:第一种是Max-margin  第二种是cross-entropy  第三种是Auto-encoder(这一种对于NLP的用处还不明确,所以课上都没有讲)

Optimization分为两大类:第一大类是Optimization Algorithm,有SGD, SGD + momentum, L-BFGS, AdaGrad, Adelta

            第二大类是Optimization tricks, 有Regularization, Dropout

Morphology

在英语中有些词汇有一个标准的词根,这个词根还可以衍生出许多派生词。有些时候词根的词汇出现的频率特别高,派生词出现的频率比较低。

这样就导致了model对词根的表示比较精确,但是对派生词的表示就比较模糊了。

于是基于这种问题就有了一种对于模型的改进措施。

对于派生词将它先parsing生成一个基于词根的tree然后使用词根以及前缀后缀,这样就把派生词和词根联系起来了。

Logic

主要是为了识别出来以下的内容:

使用的模型还是RNN,模型都比较类似就不赘述了。

Q&A

课上的这部分内容来自于之前的一篇推荐paper,以后计算机能和人对话,就是apple手机上的siri再更加完善的版本。

还有就是计算机能够参加类似幸运52,开心辞典类的节目,而且还能比人做的好。这个就厉害了。

Image - Sentence mapping

最新的研究成果是李飞飞教授做的。就是说一张图片放过来,计算机能描述出这张图上面的内容。

简单的方法是把图片和句子投影到同一个向量空间中,当出现一个图片时,应用欧式距离求最近的几个句子就能找到合适的描述了。反之可以做图片检索。

但是这样生成的句子都是有限的句子,计算机不能自己“描述”,于是就有了改进版本。

先用CNN模型把图片投射成一个向量,再用LSTM生成句子。这个有点类似机器翻译,只不过把source language换成了image

最后说一下这种模型的评价方法(evaluation)名称叫做Mean rank

在生成一个图片对于的句子的时候,可能会生成很多句子,有些正确有些不正确。

把生成的所有的句子按照相关性从大到小排序,然后记录下正确的句子的rank求mean就是mean rank

当然是越小越好啦!

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-22 15:13:04

CS224d lecture 16札记的相关文章

CS224d lecture 12札记

欢迎转载,转载注明出处: http://www.cnblogs.com/NeighborhoodGuo/p/4711678.html CS224d的第十一课是他们的课上考试,所以后面的视频就直接跳到lecture 12了.lecture 12是一位外宾过来讲得,据说是Facebook的工程师,讲了现在最前沿的AI research,AI很多东西在全世界范围内都没有解决方案或者说对某一问题有统一的意见,所以这堂课不是介绍一个成熟的model,可以理解这一讲是为大家打开一扇门,让大家了解AI中的这部

CS224d lecture 8札记

欢迎转载,转载注明原文地址: http://www.cnblogs.com/NeighborhoodGuo/p/4692979.html 又开始新一课的札记啦!最近Project Proposal也快到了,时间还是比较紧的.不过课程已经过半了还是挺开心的.stanford开放这么有技术含量的课程,还是很钦佩stanford的开放精神. 这一课是对Recurrent NN for MT做了一个简要的介绍.个人认为这种方法比较靠谱耶,想想我们人类对于母语的学习,对于母语的理解,从来都不是先分析语法,

CS224d lecture 10札记

欢迎转载,转载注明出处: http://blog.csdn.net/neighborhoodguo/article/details/47282709 Go Go Go 第十讲也顺利结束啦,不愧是Advanced Recursive NN讲得内容确实有些Advanced,不过如果认真听课再认真看课后的paper的话,我相信还是可以完全理解的. 开始总结喽... 首先,老师在课上开篇讲了RNN的一个综述吧,也是使用RNN进行NLP的三个大的要素:1.Train objective主要有两种,一种是c

CS224d lecture 9札记

欢迎转载,转载注明出处: http://www.cnblogs.com/NeighborhoodGuo/p/4694955.html 最近几课的内容不是很难,还有我的理解能力有所提高(自恋一下),所以这几课完成的都挺快.不知不觉lec9也完成了.这一讲讲了另一个RNN,其中R是Recursive不是之前的Recurrent.课上老师使用Recursive NN来做NLP和CV的任务,我个人认为做CV还是不错的,这个NLP怎么感觉有点不靠谱.不管怎么说这个model还是解决了很多实际问题的,而且性

CS224d lecture 15札记

欢迎转载,转载注明出处: http://blog.csdn.net/neighborhoodguo/article/details/47449257 这一讲还是嘉宾的讲课,讲得是关于parallel计算方面的.俗话说的好:"三个臭皮匠,顶个诸葛亮嘛".哈哈 因为一台计算机,或者一个处理器的处理能力是有限的,进行并行计算能够大大提高运算速度,节省调试的时间.而我们的NN是如此的复杂,有时候规模也特别大,所以使用并行计算是很有必要的. 这一讲呢,主要分为五个部分:1.Efficient f

CS224d lecture 13札记

欢迎转载,转载注明出处: http://blog.csdn.net/neighborhoodguo/article/details/47387229 不知不觉到了第三部分了,整个课程也快结束了,虽然不是第一次整个推完公开课,但是还是有些兴奋呢! 废话不多说,开始总结啦! 这节课就介绍了一个模型,就是在Computer Vision里十分popular的CNN(Convolutional Neural Networks).不过这里介绍它在NLP的应用,可见model其实是可以有不同的应用的哦,没准

CS224d lecture 6札记

哈哈哈,终于又到了每课的写笔记时间.这次课程的内容比较少,可能是为了给Problem set 1空余时间吧. 废话不多说.写喽 这次的video讲的东西主要就是把推荐的论文稍微详细的讲解了一部分,然后外加给RNN模型开了个头. 1.Multi-task learning / weight sharing 这个第一部分其实在NLP(almost) from scratch里也有讲解它的理念就是,在DL model里面底下几层里学到的feature是相同或者近似的,那么这样的话,只需要统一给DL m

CS224d lecture 14札记

欢迎转载,转载注明出处: http://www.cnblogs.com/NeighborhoodGuo/p/4720985.html 这一课也是请得嘉宾讲得课,据说是standford的一位博士.讲得主题是Neural Networks in Speech Recognition 不过Speech Recognition可谓是博大精深啊,这一堂课就像讲师在课前的Overview里说的一样,只是做一个perspective 让大家对这个方面有一个简要的了解,具体如何操作,这个就没有详细讲了...课

深度学习与自然语言处理(2)_斯坦福cs224d Lecture 2

原文作者:Rohit Mundra, Richard Socher 原文翻译:@熊杰([email protected]) && @王昱森 内容调整与校对:寒小阳 && 龙心尘 特别鸣谢:@面包包包包包同学的帮助 时间:2016年6月 出处:http://blog.csdn.net/han_xiaoyang/article/details/51648483 http://blog.csdn.net/longxinchen_ml/article/details/5164853