深度学习数学基础

机器学习简介:

特征向量

目标函数

机器学习分类:

有监督学习:分类问题(如人脸识别、字符识别、语音识别)、回归问题

无监督学习:聚类问题、数据降维

强化学习:根据当前状态预测下一个状态,回报最大化,回报具有延迟性,如无人驾驶、下围棋

深度学习数学知识:微积分、线性代数、概率论、最优化方法

一元函数微积分:

一元函数的泰勒展开:多项式近似代替函数

一定是在某一点附近做泰勒展开的

一元微分学:导数、泰勒展开、极值叛变法则。

多元函数微积分:

偏导数:其他变量当做常量,对其中一个变量求导数。

高阶偏导数:一般情况下,混合二阶偏导数与求导次序无关。

梯度:多元函数对各自变量的一阶偏导数构成的向量。

多元函数的泰勒展开

线性代数:

向量:n维空间的一个点。数学常为列向量,而在编程中常为行向量(按行优先存储)

向量的运算:加法、数乘、减法、内积、转置、向量的范数(将向量映射成一个非负的实数)

向量的范数:L-p范数分量绝对值的p次方求和再开p次方。L1范数:分量绝对值求和。L2范数:向量的长度/模。

矩阵:就是二维数组。矩阵的逆;矩阵的特征值;矩阵的二次型。

张量:相当于编程语言中的多维数组,n阶张量。

矩阵是2阶张量,向量是1阶张量。例如RGB彩色图像就是3阶张量。

雅克比矩阵:为所有因变量对所有自变量的偏导数构成的矩阵,雅克比矩阵的每一行为一个多元函数的梯度。

Hessian矩阵:多元函数的二阶偏导数构成的矩阵,是一个对称矩阵,相当于一元函数的二阶导数。

多元函数的极值判别法则:Hessian矩阵作用相当于f‘‘(x)

如果Hessian矩阵正定,函数在该点有极小值;如果Hessian矩阵负定,函数在该点有极大值;如果Hessian矩阵不定,则为鞍点,不是极值点。

矩阵正定的定义:x[T]Ax>0

矩阵正定的判别法则:矩阵的特征值全大于0,矩阵的所有顺序主子式都大于0,矩阵合同于单位阵。

矩阵与向量求导:

wTx对x的梯度=w

xTAx对x的梯度=(A+AT)x

xTAx对x的Hessian算子(Hessian矩阵)=A+AT

概率论:

随机事件,随机事件的概率

条件概率:

p(a,b)=p(b|a)*p(a)     p(a,b)=p(a|b)*p(b)   =>p(b|a)*p(a)=p(a|b)*p(b)

贝叶斯公式:

将上式两边除以p(b)得到:p(a|b)=p(a)*p(b|a)/p(b)  将a看做因,将b看做果,那么p(b|a)称为先验概率,p(a|b)称为后验概率,贝叶斯公式就是建立在先验概率和后验概率之间的关系。

随机事件的独立性p(a,b,c)=p(a)p(b)p(c)

随机变量:

随机事件量化后的一个变量,取每个值关联一个概率值的变量。

离散型随机变量:

取值只有有限种情况,或者无限种可列情况(如0到正无穷的所有整数为无限可列,而0到1的所有实数为无限不可列)。描述离散型随机变量的概率分布:p(x=xi)≥0,∑p(x=xi)=1.

连续型随机变量:

取值为无限不可列种情况,即一个区间内的实数。描述连续型随机变量的是概率密度函数和分布函数,概率密度函数要满足:f(x)≥0,∫f(x)dx=1;分布函数定义为F(y)=p(x≤y)=∫f(x)dx

原文地址:https://www.cnblogs.com/wisir/p/11616029.html

时间: 2024-10-01 11:30:33

深度学习数学基础的相关文章

深度学习数学基础介绍(二)概率与数理统计

第1章 随机事件与概率§1.1 随机事件§1.2 随机事件的概率§1.3 古典概型与几何概型§1.4 条件概率§1.5 事件的独立性 第2章 随机变量的分布与数字特征§2.1 随机变量及其分布§2.2 随机变量的数字特征§2.3 常用的离散型分布§2.4 常用的连续型分布§2.5 随机变量函数的分布 第3章 随机向量§3.1 随机向量的分布§3.2 条件分布与随机变量的独立性§3.3 随机向量的函数的分布与数学期望§3.4 随机向量的数字特征§3.5 大数定律与中心极限定理 第4章 数理统计的基

深度学习相关数学资料

不过在保持学习姿势的时候,方向要正,不能以战术上勤奋掩盖战略上的懒惰,其中数学要学好,特别是对于人工智能/机器学习/深度学习来说,现在打下的数学基础或许会令你将来身价暴涨十倍! 深度学习作为机器学习与人工智能的子集,兴起稍晚,却使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围. 对于深度学习来说,概率统计.微积分.线性代数等是基础课程,虽然算不上深奥,但是必须打好基础. 概率统计.概率统计是许多科学和工程的基础工具,可以告诉我们怎么推论. 微积分.深度学习中出现较多的一个概念就是梯度,

深度学习的数学基础

深度学习的数学基础 微积分 无穷小在17世纪下半叶,数学史上出现了无穷小的概念,而后发展处极限的概念 极限 数列的极限 函数的极限 导数 微分 积分 不定积分也称为原函数或反导数 定积分 定积分中值定理 牛顿-莱布尼茨公式 偏导数 概率统计 样本空间定义:随机试验 E 的所有结果构成的集合称为 E 的 样本空间,记为 S={e}称 S 中的元素 e 为样本点,一个元素的单点集称为基本事件. 概率条件概率/后验概率P(A|B)边缘概率/先验概率A的边缘概率表示为P(A),B的边缘概率表示为P(B)

TensorFlow【机器学习】:如何正确的掌握Google深度学习框架TensorFlow(第二代分布式机器学习系统)?

本文标签:   机器学习 TensorFlow Google深度学习框架 分布式机器学习 唐源 VGG REST   服务器 自 2015 年底开源到如今更快.更灵活.更方便的 1.0 版本正式发布,由 Google 推出的第二代分布式机器学习系统 TensorFlow一直在为我们带来惊喜,一方面是技术层面持续的迭代演进,从分布式版本.服务框架 TensorFlow Serving.上层封装 TF.Learn 到 Windows 支持.JIT 编译器 XLA.动态计算图框架 Fold 等,以及

关于机器学习和深度学习的资料

声明:转来的,原文出处:http://blog.csdn.net/achaoluo007/article/details/43564321 编者按:本文收集了百来篇关于机器学习和深度学习的资料,含各种文档,视频,源码等.而且原文也会不定期的更新,望看到文章的朋友能够学到更多. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林.Deep Learning. &

机器学习和深度学习学习资料

比较全面的收集了机器学习的介绍文章,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <机器学习经典论文/survey合集>介绍:看题目你已经知道了是什么内容,没错.里面有很多经典的机器学习论文值得仔细与反复的阅读. <Brief History of Machine Learning>25介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <

[转]深度学习之浅见

通常来说,大家认为深度学习的观点是Geoffrey Hinton在2006年提出的.这一算法提出之后,得到了迅速的发展.关于深度学习,zouxy09的专栏中有详细的介绍,Free Mind 的博文也很值得一读.本博文是我对深度学习的一点看法,主要内容在第4.5部分,不当之处还请指教. 1.深度学习 深度学习,即Deep Learning,是一种学习算法(Learning algorithm).学习算法这个很好理解,那么Deep指的是什么呢?这里的Deep是针对算法的结构而言的. 譬如,SVMs及

Python深度学习该怎么学?

Python想必对我们来说已经很熟悉了,Python的发展带来了一股学习Python的浪潮,聪明的人早已看准这个发展的好时机开始学习Python,那么我想问你知道Python深度学习是什么吗?不懂了吧,那让小编给你普及一下这方面的知识吧. 深度学习目前已经成为了人工智能领域的突出话题.它在"计算机视觉"和游戏(AlphaGo)等领域的突出表现而闻名,甚至超越了人类的能力.近几年对深度学习的关注度也在不断上升. 在这篇文章中,我们的目标是为所有Python深度学习的人提供一条学习之路,同

深度学习word2vec笔记之应用篇

好不容易学了一个深度学习的算法,大家是否比较爽了?但是回头想想,学这个是为了什么?吹牛皮吗?写论文吗?参加竞赛拿奖吗? 不管哪个原因,都显得有点校园思维了. 站在企业的层面,这样的方式显然是不符合要求的,如果只是学会了,公式推通了,但是没有在工作中应用上,那会被老大认为这是没有产出的.没有产出就相当于没有干活,没有干活的话就……呃……不说了. 下面就给大家弄些例子,说说在互联网广告这一块的应用吧. 一.对广告主的辅助 1.1基本概念 互联网广告的广告主其实往往有他们的困惑,他们不知道自己的目标人