如果 S 表示一连串特定顺序排列的词 w1, w2,…, wn ,
换句话说,S 可以表示某一个由一连串特定顺序排练的词而组成
的一个有意义的句子。现在,机器对语言的识别从某种角度来说,
就是想知道 S 在文本中出现的可能性,也就是数学上所说的 S 的
概率用 P(S) 来表示。利用条件概率的公式,S 这个序列出现的
概率等于每一个词出现的概率相乘,于是 P(S) 可展开为:
P(S) = P(w1)P(w2|w1)P(w3| w1 w2)…P(wn|w1 w2…wn-1)
其中 P (w1) 表示第一个词 w1 出现的概率;P (w2|w1) 是在
已知第一个词的前提下,第二个词出现的概率;以次类推。不难
看出,到了词 wn,它的出现概率取决于它前面所有词。从计算
上来看,各种可能性太多,无法实现。因此我们假定任意一个词
wi 的出现概率只同它前面的词 wi-1 有关(即马尔可夫假设),
于是问题就变得很简单了。现在,S 出现的概率就变为:
P(S) = P(w1)P(w2|w1)P(w3|w2)…P(wi|wi-1)…
(当然,也可以假设一个词又前面 N-1 个词决定,模型稍微复
杂些。)
接下来的问题就是如何估计 P (wi|wi-1)。现在有了大量机
读文本后,这个问题变得很简单,只要数一数这对词(wi-1,wi)
在统计的文本中出现了多少次,以及 wi-1 本身在同样的文本中
前后相邻出现了多少次,然后用两个数一除就可以了,P(wi|wi-1)
= P(wi-1,wi)/ P (wi-1)。
也许很多人不相信用这么简单的数学模型能解决复杂的语音
识别、机器翻译等问题。其实不光是常人,就连很多语言学家都
曾质疑过这种方法的有效性,但事实证明,统计语言模型比任何
已知的借助某种规则的解决方法都有效。比如在 Google 的中英
文自动翻译中,用的最重要的就是这个统计语言模型。去年美国
标准局(NIST) 对所有的机器翻译系统进行了评测,Google 的系
统是不仅是全世界最好的,而且高出所有基于规则的系统很多。
现在,读者也许已经能感受到数学的美妙之处了,它把一些
复杂的问题变得如此的简单。当然,真正实现一个好的统计语言
模型还有许多细节问题需要解决。贾里尼克和他的同事的贡献在
于提出了统计语言模型,而且很漂亮地解决了所有的细节问题。
十几年后,李开复用统计语言模型把 997 词语音识别的问题简
化成了一个 20 词的识别问题,实现了有史以来第一次大词汇量
非特定人连续语音的识别。
语音识别概率问题,一段在数学之美了看到的话
时间: 2024-10-03 21:53:36
语音识别概率问题,一段在数学之美了看到的话的相关文章
数学之美番外篇:平凡而又神奇的贝叶斯方法
转载自:http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/ 概率论只不过是把常识用数学公式表达了出来. ——拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法. ——题记 目录 0. 前言 1. 历史
【转载】数学之美番外篇:平凡而又神奇的贝叶斯方法
数学之美番外篇:平凡而又神奇的贝叶斯方法 BY 刘未鹏 – SEPTEMBER 21, 2008POSTED IN: 数学, 机器学习与人工智能, 计算机科学 概率论只不过是把常识用数学公式表达了出来. ——拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法. ——题记 目
[转]数学之美番外篇:平凡而又神奇的贝叶斯方法
原文转自:http://mindhacks.cn/2008/09/21/the-magical-bayesian-method/ 概率论只不过是把常识用数学公式表达了出来.——拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了——这果然是个牛逼的方法. ——题记 目录 0. 前言 1. 历史 1.
【转】数学之美番外篇:平凡而又神奇的贝叶斯方法----刘未鹏
概率论只不过是把常识用数学公式表达了出来. --拉普拉斯 记得读本科的时候,最喜欢到城里的计算机书店里面去闲逛,一逛就是好几个小时:有一次,在书店看到一本书,名叫贝叶斯方法.当时数学系的课程还没有学到概率统计.我心想,一个方法能够专门写出一本书来,肯定很牛逼.后来,我发现当初的那个朴素归纳推理成立了--这果然是个牛逼的方法. --题记 目录 0. 前言1. 历史 1.1 一个例子:自然语言的二义性 1.2 贝叶斯公式2. 拼写纠正3. 模型比较与贝叶斯奥卡姆剃刀 3.1 再访拼
读《数学之美》
其实准备读<数学之美>这本书,是从很久开始的.记得去年夏天的时候,是读了<浪潮之巅>,然后就认识了吴军这样的一个人,很喜欢他的写作风格.于是就准备读<数学之美>的. <数学之美>这本书,本身和<浪潮之巅>一样,已经在众多的读者中有了一个很好的口碑了,吴军博士本身的才学和研究,对于更多的人来说,也形成了一种尊重的心理.在我读了<浪潮之巅>后,有种很厚重的历史沧桑感堆积于胸.不得不承认<浪潮之巅>对于我的影响. <数学之
读《数学之美》有感——第一篇
<数学之美>让我改变了对数学刻板的印象,我一直都不知道数学研究得那么深入,到底有什么作用.但是经过这一次阅读,我发现数学之美可以通过信息技术直接具体地展示在人们面前.我们在解决一些问题上,一个优秀的模型对于解决问题来说实在太重要了. 我先介绍两个我觉得比较有意思的应用吧!首先是数学在中文分词中的意义.再过去的相当长一段时间,基于语法的分词效果并不理想,因为中文中有很多两个名词组成的单词相类似的情况,基于语法是很难彻底区分开的.七十年代,当时 IBM 的 Fred Jelinek (贾12数学之
数学之美读书随笔
最近在读吴军的<数学之美>,书里很多内容之前已经略有了解,这次有了新体会,随手记下,算是开卷有益吧. --20160701 1. Hidden Markov Model 从对(相对静态的)随机变量的研究发展到对随机变量的时间序列S1,S2,S3..., 即随机过程(动态的)的研究. 2. 信息的作用 消除不确定性.也就是说,收集更多的相关信息,可以得到更明确的结论. joint probability:X和Y一起出现的概率 conditional probability:在Y取不同值的前提
数学之美总结
数学之美总结 数学 机器学习应用方法 自然语言处理 读这本书也有一段时间了.今天终于读完了最后的一页,感触多多,吴军先生用简单的语言很好的给读者解释了什么才是数学,数学与现实中到底有什么关系,让我这种对数学恨了十四年的人一下子找到了学习数学的兴趣,让我对当年说的"我不懂 log 照样活30岁,而且活的照样好"有了一种新的理解.数学与我们的生活息息相关. 第一章通过一些例子讲述了信息是什么,和数学究竟有什么联系,让我逐步的对这本书产生了一些兴趣.很经典的一个观点:"为什么我们祖
《数学之美》知识点详细总结
<数学之美>知识点详细总结 原创作品, 转载请注明出处:[ Mr.Scofield http://blog.csdn.net/scotfield_msn/article/details/69264939 ] From`RxNLP`Scofield 未完待续-- <数学之美>这本书在本科期间电子版上偶尔进行了翻阅,后来有时间了就完整的进行了阅读.出于老习惯,看完一本书后总会去总结书本的知识点层次框架,以更好地融入到原有的框架中.尤其是现入坑NLP,作为入门书,更应是好好吸收下.