深度学习的数学基础

深度学习的数学基础

  • 微积分

    • 无穷小
      在17世纪下半叶,数学史上出现了无穷小的概念,而后发展处极限的概念
    • 极限
      • 数列的极限
      • 函数的极限
    • 导数
    • 微分
    • 积分
      • 不定积分
        也称为原函数或反导数
      • 定积分
      • 定积分中值定理
    • 牛顿-莱布尼茨公式
    • 偏导数
  • 概率统计
    • 样本空间
      定义:随机试验 E 的所有结果构成的集合称为 E 的 样本空间,记为 S={e}
      称 S 中的元素 e 为样本点,一个元素的单点集称为基本事件.
    • 概率
      条件概率/后验概率
      P(A|B)
      边缘概率/先验概率
      A的边缘概率表示为P(A),B的边缘概率表示为P(B)
      联合概率
      全概率公式
      贝叶斯公式
    • 随机变量
      离散型随机变量
      对离散随机变量用求和得全概率
      定义
      (0-1)分布/两点分布/伯努利分布
      二项分布
      泊松分布(Poisson分布)
      连续型随机变量
      对连续随机变量用积分得全概率
      概率分布函数F(x)
      概率密度函数f(x)
      均匀分布
      X~U(a,b)
      指数分布
      正态分布/高斯分布
      是研究误差分布的一个理论
    • 期望
      离散型随机变量的期望
      连续型随机变量的期望
    • 方差(Variance)
      一个随机变量的方差( Variance )描述的是它的离散程度,也就是该变量离其期望值的距离
      标准差(Standard Deviation)
      方差的算术平方根称为该随机变量的标准差。
      样本标准差
      协方差
      相关系数(Correlation coefficient)
      协方差矩阵
      主成分分析(PCA)
      在统计学中被称为主成分分析 (principal components analysis ,简称 PCA) ,在图像处理中称为 Karhunen-Loève 变换 (KL- 变换 ) 。
    • 大数定律
      大数定律负责给出估计——期望
    • 中心极限定理
      中心极限定理负责给出大数定律的估计的误差——标准差乘以标准正态分布
      大量相互独立的随机变量,其均值(或者和)的分布以正态分布为极限(意思就是当满足某些条件的时候,比如 Sample Size 比较大,采样次数区域无穷大的时候,就越接近正态分布)。而这个定理 amazing 的地方在于,无论是什么分布的随机变量,都满足这个定理。
    • MLE(最大似然)
    • OLS(最小二乘)
    • 样本和抽样
    • 置信区间
    • 方差分析
    • 回归分析
    • bootstrap方法
    • 马尔可夫链
  • 线性代数
  • 数值计算
    • sigmoid函数
      sigmoid函数只能分两类
    • Softmax激活函数
      softmax能分多类
    • logistic函数
    • Relu激活函数
    • 网络参数
    • 梯度下降Gradient Descent
    • 学习率Learning Rate
      Subtopic
    • 误差|损失
      均方误差(Mean Squared Error)
      交叉熵(Cross-Entropy)
    • 损失函数(cost function)
      0-1损失函数
      当模型输出值=样本值,则为1,否则为0
      平方损失函数
      (模型输出值 - 样本值)^2
      绝对值损失函数
      |模型输出值 - 样本值|
      对数损失函数
      log (Y_模型输出)

原文地址:https://www.cnblogs.com/bigcome/p/10206911.html

时间: 2024-08-01 02:22:30

深度学习的数学基础的相关文章

深度学习数学基础

机器学习简介: 特征向量 目标函数 机器学习分类: 有监督学习:分类问题(如人脸识别.字符识别.语音识别).回归问题 无监督学习:聚类问题.数据降维 强化学习:根据当前状态预测下一个状态,回报最大化,回报具有延迟性,如无人驾驶.下围棋 深度学习数学知识:微积分.线性代数.概率论.最优化方法 一元函数微积分: 一元函数的泰勒展开:多项式近似代替函数 一定是在某一点附近做泰勒展开的 一元微分学:导数.泰勒展开.极值叛变法则. 多元函数微积分: 偏导数:其他变量当做常量,对其中一个变量求导数. 高阶偏

TensorFlow【机器学习】:如何正确的掌握Google深度学习框架TensorFlow(第二代分布式机器学习系统)?

本文标签:   机器学习 TensorFlow Google深度学习框架 分布式机器学习 唐源 VGG REST   服务器 自 2015 年底开源到如今更快.更灵活.更方便的 1.0 版本正式发布,由 Google 推出的第二代分布式机器学习系统 TensorFlow一直在为我们带来惊喜,一方面是技术层面持续的迭代演进,从分布式版本.服务框架 TensorFlow Serving.上层封装 TF.Learn 到 Windows 支持.JIT 编译器 XLA.动态计算图框架 Fold 等,以及

关于机器学习和深度学习的资料

声明:转来的,原文出处:http://blog.csdn.net/achaoluo007/article/details/43564321 编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等.而且原文也会不定期的更新,望看到文章的朋友能够学到更多. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林.Deep Learning. &

机器学习和深度学习学习资料

比较全面的收集了机器学习的介绍文章,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <机器学习经典论文/survey合集>介绍:看题目你已经知道了是什么内容,没错.里面有很多经典的机器学习论文值得仔细与反复的阅读. <Brief History of Machine Learning>25介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <

[转]深度学习之浅见

通常来说,大家认为深度学习的观点是Geoffrey Hinton在2006年提出的.这一算法提出之后,得到了迅速的发展.关于深度学习,zouxy09的专栏中有详细的介绍,Free Mind 的博文也很值得一读.本博文是我对深度学习的一点看法,主要内容在第4.5部分,不当之处还请指教. 1.深度学习 深度学习,即Deep Learning,是一种学习算法(Learning algorithm).学习算法这个很好理解,那么Deep指的是什么呢?这里的Deep是针对算法的结构而言的. 譬如,SVMs及

Python深度学习该怎么学?

Python想必对我们来说已经很熟悉了,Python的发展带来了一股学习Python的浪潮,聪明的人早已看准这个发展的好时机开始学习Python,那么我想问你知道Python深度学习是什么吗?不懂了吧,那让小编给你普及一下这方面的知识吧. 深度学习目前已经成为了人工智能领域的突出话题.它在"计算机视觉"和游戏(AlphaGo)等领域的突出表现而闻名,甚至超越了人类的能力.近几年对深度学习的关注度也在不断上升. 在这篇文章中,我们的目标是为所有Python深度学习的人提供一条学习之路,同

深度学习word2vec笔记之应用篇

好不容易学了一个深度学习的算法,大家是否比较爽了?但是回头想想,学这个是为了什么?吹牛皮吗?写论文吗?参加竞赛拿奖吗? 不管哪个原因,都显得有点校园思维了. 站在企业的层面,这样的方式显然是不符合要求的,如果只是学会了,公式推通了,但是没有在工作中应用上,那会被老大认为这是没有产出的.没有产出就相当于没有干活,没有干活的话就……呃……不说了. 下面就给大家弄些例子,说说在互联网广告这一块的应用吧. 一.对广告主的辅助 1.1基本概念 互联网广告的广告主其实往往有他们的困惑,他们不知道自己的目标人

深度学习中得数学,高效计算基础与线性分类器

深度学习说到底就是要调节网络中得权重,使网络的分类结果更接近于训练值.这个重复迭代的过程又是一个线性回归的问题.在这种可能会用到高数,线性代数,概率论中的知识. 一.数学基础提一提. 1.高数中得知识. 高数中最重要的就是微积分了,那在深度学习中出现最多的一个概念就是梯度.什么是梯度呢?要说导数,学过高数的肯定都知道.其实梯度就是当把标量x变成向量X时,对X求导就是梯度.那为什么要用梯度呢?因为梯度等于0在凸函数中往往代表着一个极小值点.我们要求得就是损失函数的极小值,这正是我们需要的.梯度是指

深度学习算法实践7---前向神经网络算法原理

总体上来讲,神经网络的算法是比较复杂的,后面有非常精妙的数学原理,而且对这些数学方法,还需要证明其具有收敛性,所以很多神经网络的书籍,绝大部分都是一些数学模型介绍.推导和证明,对于非数学专业的我们来说,感沉像看天书一样.其实神经网络的精髓是将现实中的问题进行抽象,建立适合神经网络表示的模型,然后应用神经网络进行处理,不断调整优化网络结构和参数,直到最终达到满意的效果.所以成功应用神经网络,不需要太过高深的数学基础.但是如果可以适当掌握神经网络背后的数学原理,对于我们理解参数的含义,选择合适的网络