NeurIPS 2018 中的贝叶斯研究

NeurIPS 2018 中的贝叶斯研究

WBLUE

2018年12月21日

雷锋网 AI 科技评论按:神经信息处理系统大会(NeurIPS)是人工智能领域最知名的学术会议之一,NeurIPS 2018 已于去年 12 月 3 日至 8 日在加拿大蒙特利尔市举办。来自 Zighra.com 的首席数据科学家在参加完此次会议之后,撰写了一篇关于贝叶斯研究的参会总结,雷锋网 AI 科技评论编译整理如下。

此次会议支持现场直播,所有讲座的视频内容均可以在 NeurIPS 的 Facebook 主页上找到,除此之外,NeurIPS 主页上还有一些非常有趣的主题演讲,其中最吸引我的是 Micheal Levin 教授讲的神经系统外的生物电计算、原始认知和综合形态学。其他值得关注还有,Joelle Pineau 教授演讲主题:可重复,可重用和可强化的强化学习,David Spiegelhalter 演讲主题:使算法值得信赖,以及 Kunle Olukotun 演讲主题:为软件 2.0 版本设计的计算机系统。还有一个非常有趣的研讨会,主要讨论机器学习在物理学领域的分子和材料中的应用

我关注 NeurIPS2018 主要是为了解贝叶斯推断的最新研究动态及其在机器学习和人工智能领域中的应用。正如预期的那样,在为期 6 天的会议中,贝叶斯研究相关论文多达 70 多篇。David Dunson 教授关于可扩展贝叶斯推断的导读非常有用。本教程概述了使用贝叶斯统计方法分析海量数据集的最新方法。Dunson 教授讨论了扩展常用马尔可夫链蒙特卡罗(MCMC)算法的简单方法,例如:高速并行(EP)MCMC,近似 MCMC,随机近似,混合优化和采样以及模块化。这些方法在计算广告学,基因组学和神经科学等领域均有应用。

还有两个与贝叶斯推断相关的研讨会。一个是贝叶斯深度学习,另一个是非参数化贝叶斯推断,目前都是非常活跃的研究领域。

口头报告和展板涵盖了贝叶斯推断的几个方面,包括理论进步和其在机器学习中的应用。涵盖的主题包括贝叶斯深度学习,贝叶斯强化学习,贝叶斯优化,变分推断,变分自动编码器,马尔可夫链蒙特卡罗(MCMC)方法,表示学习或元学习,认知科学,差分隐私,近似贝叶斯方法和贝叶斯网络。这一系列主题展示了贝叶斯方法在机器学习和人工智能中的重要性。

我将在这里总结一些我发现有趣的演讲/展板,完整的演讲/展板清单可以在 NeurIPS2018 会议论文页面找到。

基于贝叶斯优化和最优传输的神经架构搜索

在这项工作中,作者开发了 NASBOT,这是一种基于高斯过程的贝叶斯优化框架,用于神经架构搜索。作者在神经网络架构的空间中提出了一个距离度量,可以通过最优的传输程序进行有效计算。

通过贝叶斯网络结构学习构建深度神经网络

本文作者介绍了深度神经网络无监督结构学习的原理。他们提出了深度和层间连接的新解释,其中输入分布中的条件独立性在网络结构中被分层编码,这样可以固有地确定网络的深度。该方法将神经网络结构学习问题隐射为贝叶斯网络结构学习的问题。

深度学习的解释模型——一种非参数化的贝叶斯方法

在这项工作中,作者提出了一种新的技术方法,它增加了具有多个弹性网的贝叶斯非参数回归混合模型。使用增强混合模型,可以通过全局近似提取目标模型的泛化理解。

贝叶斯对抗学习

深度神经网络容易受到对抗性攻击,标准的防御性方法是将其作为一个强大的优化问题。本文则是最小化了从对抗数据生成分布中生成的最坏情况损失的点估计。这项工作提出了一种新的强大的训练框架,称为贝叶斯鲁棒学习,其中对对抗性数据生成分布进行分配,以解释对抗性数据生成过程的不确定性。

贝叶斯分布随机梯度下降

这项工作讨论了一种用于在并行集群上训练深度神经网络的高吞吐量算法。该算法在生成模型中使用平摊推理,以计算群集的特定方式执行小批量梯度计算时间的联合后验预测推断。特别地是,该算法在基于梯度的同步优化中,通过选择一个最优的中断(cutoff)来缓解算法中的掉队问题。

贝叶斯模型不可知元学习

在本文中,作者提出了一种新的贝叶斯模型不可知元学习方法,用于从小数据集中学习。该方法将原有的基于梯度的元学习与非参数变分推断结合在一个有原则的概率框架中。

平均美及其环境调节:贝叶斯统计账户

了解人类如何感知高维物体(如面部)的美感是认知科学和 AI / ML 中的一个重要问题。从心理学文献中可知,人类对面部吸引力的评估是依赖于环境的。在本文中,作者假设,当一个对象的编码成本较低时,特别是当其感知的统计典型性较高时,人类对一个对象的喜好会增加,这与 Barlow 的开创性的编码假设一致。

来自演示的时间任务规范的贝叶斯推断

当观察任务演示时,人类学徒能够先于获得实际执行该任务的专业知识之前就能知道给定任务是否正确执行。作者提出了贝叶斯指数推断,这是一种推断任务规范作为时间逻辑公式的概率模型。作者将概率编程的方法与独立于领域的似然函数结合起来,以定义它们的先验,从而支持基于采样的推断。

通过鞍点进行预测近似贝叶斯计算

当似然函数难以处理时,近似贝叶斯计算(ABC)是贝叶斯推理的一种重要方法。在本文中,作者介绍了一种基于优化的 ABC 框架,该框架解决了现有方法的不足。利用生成模型进行后验和联合分布匹配,作者表明,ABC 可以被定义为鞍点问题,其目标可以直接用样本访问。

多专家强化学习:贝叶斯模型组合方法

在本文中,作者将贝叶斯模型与多个专家相组合,使其学习如何在训练过程中信任优秀的专家组合。

变分贝叶斯蒙特卡罗

许多在科学计算和机器学习中大热的概率模型是很棘手的,需要求梯度或大量似然估计。作者在这里介绍了一种新的样本推断框架,即变分贝叶斯蒙特卡罗(VBMC)。 VBMC 将变分推断与基于高斯过程的主动采样贝叶斯积分相结合,使用后者有效地近似变分目标中的难以求得的积分。

深度高斯过程的随机梯度哈密顿蒙特卡罗推断

深度高斯过程(DGP)是高斯过程的分层推广,其将良好校准的不确定性估计与多层模型的高灵敏度相结合。这些模型面临的最大挑战之一是精确推断是很难处理的。在这项工作中,作者提供了后验的非高斯性质的证据,并且他们应用随机梯度哈密顿蒙特卡罗方法从后验分布生成样本。

算法保证:使用贝叶斯优化进行算法测试的主动方法

在这项工作中,作者引入了算法保证,即测试机器学习算法是否符合其预期设计目标的问题。作者在数学上将此任务表述为昂贵的黑盒函数的优化问题。他们使用基于贝叶斯优化的主动学习方法来解决这个优化问题。

用易处理变分推断的离散松弛连续变量

作者探讨了贝叶斯变分推断的一个新的研究方向,即离散潜变量先验,他们利用 Kronecker 矩阵代数进行对数似然(证据)下界(ELBO)的高效精确计算。这导致后验样本由稀疏和低精度量化整数组成,其允许在硬件受限设备上快速推断。

Wasserstein 变分推断

本文介绍了 Wasserstein 变分推理,一种基于最优传输理论的近似贝叶斯推理的新形式。Wasserstein 变分推理使用一个新的分歧,包括 f-散度和 Wasserstein 距离作为特殊情况。该技术产生非常稳定的训练方法,可以与隐式分布和概率程序一起使用。

在变分自动编码器中学习潜在子空间

通常很难解释使用变分自动编码器(VAE)学习的潜在空间表示。作者提出了一种基于 VAE 的生成模型,它能够提取与数据中二进制标签相关的特征,并在容易表示的潜在子空间中构造它。

用于分子设计的约束图变分自动编码器

在强调化学应用的同时,作者探索了学习生成符合训练数据中观察到的分布的图的任务。他们提出了一种变分自动编码器模型,其中编码器和解码器都是图结构的。他们表明,通过使用潜在空间的大致形状,该模型可以设计在所需特性(局部)中最佳的分子。

我可能在这里省略了在 NeurIPS2018 上提出的关于贝叶斯推断的其他几项重要工作。这在一定程度上是因为我的个人选择,而且我可能也没有在会议上提交的数百篇论文和展板中注意到它们。建议读者通过 NeurIPS2018 会议论文搜索其他有趣的论文。

总之,在 NeurIPS2018 上提出的关于贝叶斯推断的工作清单显示了该主题在机器学习和人工智能时代的相关性。去年,贝叶斯推断在后验密度估计的更好算法方面取得了一些重要进展,并在从深度学习模型的解释到新分子设计等问题上得到了应用。

via:https://medium.com/datadriveninvestor/bayesian-research-in-neurips2018-319cdbca71e9

原文地址:https://www.cnblogs.com/think90/p/11612317.html

时间: 2024-10-10 09:57:35

NeurIPS 2018 中的贝叶斯研究的相关文章

PGM学习之五 贝叶斯网络

本文的主题是"贝叶斯网络"(Bayesian Network) 贝叶斯网络是一个典型的图模型,它对感兴趣变量(variables of interest)及变量之间的关系(relationships)进行建模.当将贝叶斯模型与统计技术一起使用时,这种图模型分析数据具有如下几个优势: (1)    贝叶斯学习能够方便的处理不完全数据.例如考虑具有相关关系的多个输入变量的分类或回归问题,对标准的监督学习算法而言,变量间的相关性并不是它们处理的关键因素,当这些变量中有某个缺值时,它们的预测结

模式识别之贝叶斯---朴素贝叶斯(naive bayes)算法及实现

处女文献给我最喜欢的算法了 ⊙▽⊙ ---------------------------------------------------我是机智的分割线---------------------------------------------------- [important] 阅读之前你需要了解:1.概率论与数理统计基础 2.基本的模式识别概念 [begin] 贝叶斯决策论是模式分类问题最基础的概念,其中朴素贝叶斯更是由于其简洁成为学习模式分类问题的基础. 朴素贝叶斯的理论基础:源于概率论

朴素贝叶斯-基于概率的分类方法

决策树.knn算法都是结果确定的分类算法,数据示实例最终被明确的划分到某个分类中 贝叶斯:不能完全确定数据实例应该划分到某个类,湖综合只能给出数据实例属于给定分类的概率 *引入先验概率与逻辑推理来处理不确定命题 *(扩展命题),另一种叫频数概率,从数据本身出发得到结论,不考了逻辑推理及先验知识. 朴素贝叶斯:整个形式化过程中制作最原始,最简单的假设 python文本能力:将文本划分为词向量,利用词向量对文本分类 朴素贝叶斯:选择高概率对应的类别 优点:在数据较少的情况下仍然有效,可以处理多类别问

scikit-learn 朴素贝叶斯类库使用小结

之前在朴素贝叶斯算法原理小结这篇文章中,对朴素贝叶斯分类算法的原理做了一个总结.这里我们就从实战的角度来看朴素贝叶斯类库.重点讲述scikit-learn 朴素贝叶斯类库的使用要点和参数选择. 1. scikit-learn 朴素贝叶斯类库概述 朴素贝叶斯是一类比较简单的算法,scikit-learn中朴素贝叶斯类库的使用也比较简单.相对于决策树,KNN之类的算法,朴素贝叶斯需要关注的参数是比较少的,这样也比较容易掌握.在scikit-learn中,一共有3个朴素贝叶斯的分类算法类.分别是Gau

贝叶斯原理

1. 前言 贝叶斯学派很古老,但是从诞生到一百年前一直不是主流.主流是频率学派.频率学派的权威皮尔逊和费歇尔都对贝叶斯学派不屑一顾,但是贝叶斯学派硬是凭借在现代特定领域的出色应用表现为自己赢得了半壁江山. 贝叶斯学派的思想可以概括为先验概率+数据=后验概率.也就是说我们在实际问题中需要得到的后验概率,可以通过先验概率和数据一起综合得到.数据大家好理解,被频率学派攻击的是先验概率,一般来说先验概率就是我们对于数据所在领域的历史经验,但是这个经验常常难以量化或者模型化,于是贝叶斯学派大胆的假设先验分

机器学习实战教程(五):朴素贝叶斯实战篇之新浪新闻分类

原文链接: Jack-Cui,https://cuijiahua.com/blog/2017/11/ml_5_bayes_2.html 一.前言 上篇文章机器学习实战教程(四):朴素贝叶斯基础篇之言论过滤器讲解了朴素贝叶斯的基础知识.本篇文章将在此基础上进行扩展,你将看到以下内容: 拉普拉斯平滑 垃圾邮件过滤(Python3) 新浪新闻分类(sklearn) 二.朴素贝叶斯改进之拉普拉斯平滑 上篇文章提到过,算法存在一定的问题,需要进行改进.那么需要改进的地方在哪里呢?利用贝叶斯分类器对文档进行

机器学习-朴素贝叶斯

1. 贝叶斯公式是机器学习中常用的计算方法,例如,甲射中靶标的概率是0.4,乙射中靶标的概率是0.8,现在有个人中靶了,问问是甲射中的概率.这非常好计算,P=0.4/(0.8+0.4)=0.33,这是贝叶斯公式的基本应用,具体的贝叶斯公式如下: 2.<机器学习实战>中的贝叶斯实现: 略有修改,已经在本地电脑通过测试,可以运行 import numpy as np #-_-_-_-_-_- dataset=[['my', 'dog', 'has', 'flea', 'problems', 'he

实现 | 朴素贝叶斯模型算法研究与实例分析

实现 | 朴素贝叶斯模型算法研究与实例分析(白宁超2018年9月4日09:03:21) 导读:朴素贝叶斯模型是机器学习常用的模型算法之一,其在文本分类方面简单易行,且取得不错的分类效果.所以很受欢迎,对于朴素贝叶斯的学习,本文首先介绍理论知识即朴素贝叶斯相关概念和公式推导,为了加深理解,采用一个维基百科上面性别分类例子进行形式化描述.然后通过编程实现朴素贝叶斯分类算法,并在屏蔽社区言论.垃圾邮件.个人广告中获取区域倾向等几个方面进行应用,包括创建数据集.数据预处理.词集模型和词袋模型.朴素贝叶斯

【机器学习中的数学】贝叶斯概念学习

概念学习 许多机器学习问题涉及从特殊训练样例中得到一般概念.比如人们不断学习的一些一般概念和类别.每个概念可被看作一个对象或事件集合,它是从更大的集合中选取的子集(如从动物的集合中选取鸟类),或者是在这个较大集合中定义的布尔函数(如在动物集合中定义的函数,它对鸟类返回true,对其他动物返回false). 小孩理解一个词义的例子 考虑一个小孩子理解"狗"这个词的意义.假设当小孩的父母指着一个动物对他说,"这是一只狗",这是给出了概念的正例.而当小孩子看到一只猫时说,