Pattern Recognition and Machine Learning (preface translation)

前言

  鉴于机器学习产生自计算机科学,图像识别却起源于工程学。然而,这些活动能被看做同一个领域的两个方面,并且他们同时在这过去的十年间经历了本质上的发展。特别是,当图像模型已经作为一个用来描述和应用概率模型的框架出现时,贝叶斯定理(Bayesian methods)就已经从一个专家级别的知识范畴发展成为主流。通过一系列近似算法推论,例如变分贝叶斯和期望传播(variational Bayes and expectation propagation),贝叶斯定理的实际适用范围也已经大幅度的提高。与此同时,基于核心程序的新模型在算法和应用方面都已经有了重要的影响。

这本新书对图像识别和机器学习提供一个综合性介绍,同时也反映了当下的发展状况。它是主要针对优秀的研究生或者第一年的博士生,还有相关研究人员和从业者,同时假定大家对图像识别和机器学习概念知识没有任何学习经历,以此为基础来设计的。当然,多元微积分和基础的线性代数是需要的,并且一定程度精通概率论将会是有帮助的,虽然没有强制性要求,因为本书自身包含了对于基础概率理论的介绍。

因为这本书涉及范围广,所以提供一个完整的推导过程是不可能的,并且不打算特别的介绍理念的精准的历史归属。相反,我们的目标是给予参考,而这些参考能提供最大可能的细节,并且在一些情况下希望对这个非常广泛的课题文献提供一个入口点。为了这个理由,参考文献大部分是现今的教科书和评论文章而不是原始的资源。

本书引用大量额外资料,包括课程幻灯片和完全用在课本上的图标。并且鼓励读者去本书网站获得最新的信息:http://research.microsoft.com/∼cmbishop/PRML

习题

出现在每节结尾的习题是这本书的一个重要组成部分。每道习题都是精心挑选用来加强在文中解释的概念,或者以有意义的方式发展和推广它们,并且每道题根据难度分成了一星到三星,一星代表着简单的习题,只需要几分钟就可以完成;三星代表着显著更难的习题。

对于哪些习题范围给予答案才能广泛的使大家受益,这已经很难知道了。自主学习的人将会发现现成的答案非常有益,同时许多课程教师请求只通过发布者给出的答案才更好,因为这样这些练习就可以运用在课堂上。为了努力达到这个相互矛盾的要求,那些用来帮助详述文中关键点或者补充重要细节的练习题将会有现成的答案,这些答案以一个PDF文件发布在本书的网站上。对于剩下的习题答案教师可以通过和发布者联系获得(联系方式发布在本书网站上)。强烈鼓励读者在没有受到帮助的情况下解决这些习题,只有在必须的情况下才去看答案。

虽然这本书关注于概念和原则,但是在理念上学生在上课时应该有机会用恰当的数集去实验一些关键的算法。一个姐妹篇(Bishop and Nabney,2008)将会解决图像识别和机器学习的实践方面,并且将用Matlab软件实践大部分的在书中讨论的算法。

感谢

首先我将要真诚的感谢Markus Svens´ en,他在图表和本书的排版上提供了巨大的帮助。他的协助是无价的。

我对微软研究院(Microsoft Research)非常感谢,因为其提供我一个高度促进的研究环境和给予我自由来写这本书(本书的观点和见解仅表个人所观点,与微软和其各附属机构无关)。

Springer对于这本书的准备的最后环节提供了极大的支持,并且我将感谢委任编辑John Kimmel的支持和专业性。同时对于Joseph Piliero的封面设计和文章格式,MaryAnn Brickner的许多生产环节的帮助表示感谢。这个封面设计的灵感来自于和Antonio Criminisi讨论。

我也希望感谢牛津大学出版(Oxford University Press)社对于一本前面出版的书Neural Networks for Pattern Recognition(Bishop,1995a)的引用的允许。Mark 1感知器和Frank Rosenblatt图片的复制得到了Arvin Calspan Advanced Technology Center的允许。我也要感谢Asela Gunawardana在图13.1为我画的光谱图,同时感谢Bernhard Sch¨ olkopf允许我运用他的核心代码PCA来画图12.17。

许多人在校对草稿资料和提供意见和建议方面提供了帮助,其中有Shivani Agarwal, C´ edric Archambeau, Arik Azran,Andrew Blake, Hakan Cevikalp, Michael Fourman, Brendan Frey, Zoubin Ghahramani, Thore Graepel, Katherine Heller, Ralf Herbrich, Geoffrey Hinton, Adam Johansen, Matthew Johnson, Michael Jordan, Eva Kalyvianaki, Anitha Kannan, Julia Lasserre, David Liu, Tom Minka, Ian Nabney, Tonatiuh Pena, Yuan Qi, Sam Roweis,Balaji Sanjiya, Toby Sharp, Ana Costa e Silva, David Spiegelhalter, Jay Stokes, Tara Symeonides, Martin Szummer, Marshall Tappen, Ilkay Ulusoy, Chris Williams, JohnWinn, and Andrew Zisserman。

最后,感谢我的妻子Jenna,是她极力的支持我度过了写这本书的这些年。

Chris Bishop

Cambridge

February 2006

ps:小弟第一次翻译,又是非专业英语,各种错误和错解望各位大侠指正和指导,这是这本书的preface。谢谢您花时间观看和支持。谁有比较正版的pdf可以传我一份最好,感激不尽。

时间: 2024-10-06 22:24:30

Pattern Recognition and Machine Learning (preface translation)的相关文章

今天开始学Pattern Recognition and Machine Learning (PRML),章节5.2-5.3,Neural Networks神经网络训练(BP算法)

转载请注明出处:Bin的专栏,http://blog.csdn.net/xbinworld 这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法--反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典.也是deep learning的基石之一.还是老样子,下文基本是阅读笔记(句子翻译+自己理解),把书里的内容梳理一遍,也不为什么目的,记下来以后自己可以翻阅用. 5.2 Network Training 我们可

今天开始学习模式识别与机器学习Pattern Recognition and Machine Learning (PRML),章节5.1,Neural Networks神经网络-前向网络。

话说上一次写这个笔记是13年的事情了···那时候忙着实习,找工作,毕业什么的就没写下去了,现在工作了有半年时间也算稳定了,我会继续把这个笔记写完.其实很多章节都看了,不过还没写出来,先从第5章开始吧,第2-4章比较基础,以后再补! 第5章 Neural Networks 在第3章和第4章,我们已经学过线性的回归和分类模型,这些模型由固定的基函数(basis functions)的线性组合组成.这样的模型具有有用的解析和计算特性,但是因为维度灾难(the curse of dimensionali

神经网络作业: NN LEARNING Coursera Machine Learning(Andrew Ng) WEEK 5

在WEEK 5中,作业要求完成通过神经网络(NN)实现多分类的逻辑回归(MULTI-CLASS LOGISTIC REGRESSION)的监督学习(SUOERVISED LEARNING)来识别阿拉伯数字.作业主要目的是感受如何在NN中求代价函数(COST FUNCTION)和其假设函数中各个参量(THETA)的求导值(GRADIENT DERIVATIVE)(利用BACKPROPAGGATION). 难度不高,但问题是你要习惯使用MALAB的矩阵QAQ,作为一名蒟蒻,我已经狗带了.以下代核心部

Pattern Recognition And Machine Learning (模式识别与机器学习) 笔记 (1)

By Yunduan Cui 这是我自己的PRML学习笔记,目前持续更新中. 第二章 Probability Distributions 概率分布 本章介绍了书中要用到的概率分布模型,是之后章节的基础.已知一个有限集合 \(\{x_{1}, x_{2},..., x_{n}\}\), 概率分布是用来建立一个模型:\(p(x)\). 这一问题又称作密度估计( density estimation ). 主要内容 1. Binomial and Multinomial distributions 面

机器学习系统设计(Building Machine Learning Systems with Python)- Willi Richert Luis Pedro Coelho

机器学习系统设计(Building Machine Learning Systems with Python)- Willi Richert Luis Pedro Coelho 总述 本书是 2014 的,看完以后才发现有第二版的更新,2016.建议阅读最新版,有能力的建议阅读英文版,中文翻译有些地方比较别扭(但英文版的书确实是有些贵). 我读书的目的:泛读主要是想窥视他人思考的方式. 作者写书的目标:面向初学者,但有时间看看也不错.作者说"我希望它能激发你的好奇心,并足以让你保持渴望,不断探索

【coursera笔记】Machine Learning(Week6)

发现自己不写总结真是件很恶劣的事情,好多学的东西没有自己总结都忘记了.所以决定从今天开始,学东西的时候一定跟上总结. 我写的东西大多数是自己通俗的总结,不太喜欢写严格的定义或者证明,写了也记不住,欢迎指正. 1. High Bias vs. High Variance High Bias:通常是因为模型过于简单,使得不能成功拟合数据.比如说一些有二次曲线特性的数据,如果用一次直线去拟合就会出现这个问题,所以它对应了Underfitting问题.另外,从泛化角度来说,这样的模型泛化程度更高. Hi

Advice for Applying Machine Learning & Machine Learning System Design----- Stanford Machine Learning(by Andrew NG)Course Notes

Adviceforapplyingmachinelearning Deciding what to try next 现在我们已学习了线性回归.逻辑回归.神经网络等机器学习算法,接下来我们要做的是高效地利用这些算法去解决实际问题,尽量不要把时间浪费在没有多大意义的尝试上,Advice for applying machine learning & Machinelearning system design 这两课介绍的就是在设计机器学习系统的时候,我们该怎么做? 假设我们实现了一个正则化的线性回

Neural Networks Learning----- Stanford Machine Learning(by Andrew NG)Course Notes

本栏目内容来自Andrew NG老师的公开课:https://class.coursera.org/ml/class/index 一般而言, 人工神经网络与经典计算方法相比并非优越, 只有当常规方法解决不了或效果不佳时人工神经网络方法才能显示出其优越性.尤其对问题的机理不甚了解或不能用数学模型表示的系统,如故障诊断.特征提取和预测等问题,人工神经网络往往是最有利的工具.另一方面, 人工神经网络对处理大量原始数据而不能用规则或公式描述的问题, 表现出极大的灵活性和自适应性. 神经网络模型解决问题的

Logistic Regression & Regularization ----- Stanford Machine Learning(by Andrew NG)Course Notes

coursera上面Andrew NG的Machine learning课程地址为:https://www.coursera.org/course/ml 我曾经使用Logistic Regression方法进行ctr的预测工作,因为当时主要使用的是成型的工具,对该算法本身并没有什么比较深入的认识,不过可以客观的感受到Logistic Regression的商用价值. Logistic Regression Model A. objective function       其中z的定义域是(-I