[PGM] Temporal Models

学术潜规则:

概率图模型提出的意义在于将过去看似零散的topic/model以一种统一的方式串联了起来,它便于从整体上看待这些问题,而非具体解决了某个细节。

举个例子:梯度下降,并非解决神经网络收敛问题而专门提出的什么算法,其实是凸优化理论中的一部分。凸优化理论的作用就是概率图模型的贡献所在。

统计机器学习,有数学系角度的认识,也有计算机系角度的认识。

统计机器学习 - 张志华

该课程更偏向于数学系视角,所以课程中包含了大量的概率基础。但课程的top不够,但并非讲师不行,而是计算机系的学生并未系统的学习贝叶斯推断所致。

其实,“统计机器学习”就是PGM,或者说是Advanced PGM。从这个角度来讲,将高斯过程,LDA等划分到Advanced PGM是比较合理的。

Video: https://www.youtube.com/watch?v=ogs4Oj8KahQ&index=13&list=PL50E6E80E8525B59C

时间: 2024-10-13 05:55:22

[PGM] Temporal Models的相关文章

概率图模型(PGM)学习笔记(五)——模板模型

模板模型(Template Models)主要包括模板变量(TemplateVariables)和语言(Language). 模板模型可以应用于无限大的贝叶斯网络: 模板变量是被多次复用的变量: 如:地点(时间).基因型(人物).标签(像素).难度(课程),等等. 语言用来描述模板变量如何从模板中继承依赖关系. 语言有很多种,各种语言都有各种应用条件,从而构造出大量非常有用的语言. 模板模型可以用紧凑的方式描述 1.时序上的重复(如动态贝叶斯网络Dynamic Bayesian Networks

4、概率图模型:Template Modles

本章总结几个模板模型:动态贝叶斯.隐马尔科夫和Plate模型 1 OverView of Template Models 为了达到不用每一都对问题建立模型,而是每次都对某一类问题有一个统一的模型进行处理,而提出了模板模型.模板模型(template model)编码了具有重复结构和共享参数的模型.从而使图模型的描述方式更加的紧凑,可以应用于无限大的贝叶斯网络.主要包括模板变量(Template variables)和语言(language). 模板变量(Template variables)是图

A Statistical View of Deep Learning (IV): Recurrent Nets and Dynamical Systems

A Statistical View of Deep Learning (IV): Recurrent Nets and Dynamical Systems Recurrent neural networks (RNNs) are now established as one of the key tools in the machine learning toolbox for handling large-scale sequence data. The ability to specify

stanford推荐阅读目录

stanford推荐阅读目录 stanford deep learning 网站上推荐的阅读目录: UFLDL Recommended Readings If you're learning about UFLDL (Unsupervised Feature Learning and Deep Learning), here is a list of papers to consider reading. We're assuming you're already familiar with b

{ICIP2014}{收录论文列表}

This article come from HEREARS-L1: Learning Tuesday 10:30–12:30; Oral Session; Room: Leonard de Vinci 10:30  ARS-L1.1—GROUP STRUCTURED DIRTY DICTIONARY LEARNING FOR CLASSIFICATION Yuanming Suo, Minh Dao, Trac Tran, Johns Hopkins University, USA; Hojj

Machine Learning Basic Knowledge

常用的数据挖掘&机器学习知识(点) Basis(基础): MSE(MeanSquare Error 均方误差),LMS(Least MeanSquare 最小均方),LSM(Least Square Methods 最小二乘法),MLE(Maximum LikelihoodEstimation最大似然估计),QP(QuadraticProgramming 二次规划), CP(ConditionalProbability条件概率),JP(Joint Probability 联合概率),MP(Mar

Probabilistic Graphical Models:一、Introduction and Overview(1、Overview and Motivation)

一.PGM用来做什么 1.  医学诊断:从各种病症分析病人得了什么病,该用什么手段治疗 2.  图像分割:从一张百万像素级的图片中分析每个像素点对应的是什么东西 两个共同点:(1)有非常多不同的输入变量:(2)对于算法而言,结果都是不确定的 二.PGM各代表什么 1.  Models 2.  Probabilistic (1)概率:设计model即是为了分析一些不确定的东西(uncertainty) (2)Uncertainty的来源: (3)概率在模型表达上的优势 3.  Graphical

PGM学习之六 从有向无环图(DAG)到贝叶斯网络(Bayesian Networks)

本文的目的是记录一些在学习贝叶斯网络(Bayesian Networks)过程中遇到的基本问题.主要包括有向无环图(DAG),I-Maps,分解(Factorization),有向分割(d-Separation),最小I-Maps(Minimal I-Maps)等.主要参考Nir Friedman的相关PPT. 1  概率分布(Probability Distributions) 令X1,...,Xn表示随机变量:令P是X1,...,Xn的联合分布(joint distribution).如果每

PGM学习之四 Factor,Reasoning

通过上一篇文章的介绍,我们已经基本了解了:Factor是组成PGM模型的基本要素:Factor之间的运算和推理是构建高维复杂PGM模型的基础.那么接下来,我们将重点理解,Factor之间的推理(Reasoning Patterns).Factor之间的推理分为以下几类: 1. Causal Reasoning , 因果推理: 2. Evidential Reasoning,证据推理: 3. Intercausal Reasoning 本文将详细描述上述三种推理模式. 一 Casual Reaso