机器学习中的重点数学知识

深度学习中的数学

1、数学是基石,编程为工具

2、深度学习基本全是优化问题(数学)

微积分知识重点:

① 导数:导数法则、常见的函数的导数、

② 多元函数的导数:求梯度(偏导数)、二阶导数和hess矩阵

l 为什么需要使用矩阵表达多元函数?

方便计算、简洁

l 二次型求梯度 特别简单(需要了解:张矩阵)、

泰勒级数和极值:

l 实际中我们想求一个函数的极值点:

令f’(x) = 0,哇,太难了............怎么办?(泰勒展开)

一阶函数函数的导数是一个数,可以确定函数的极值点。但是二阶、多阶呢?

写成二次型后求hess矩阵,判断hess矩阵的正定性。

l 为什么要用梯度下降法???

使用泰勒展开,如果 δ为函数的梯度,

为了求出f’(x) = 0,是一种迭代求法。

概率论知识

随机变量:分布函数、累积分布函数(求概率)、概率密度函数(累积分布函数的导数)

l 高斯分布(最完美的分布)

对称轴:μ       分散程度:δ

独立的高斯变量相加仍然是高斯分布!(神奇)

X = x1 + x2 + x3 (三项以后)(任意独立分布加起来也是高斯分布)

贝叶斯公式(机器学习中最重要的公式)

 

 

 

矩阵重点:

特征值和特征向量的理解:

Ax = λx

这个式子是如此的简单粗暴,以致于从这个公式来看,给向量x乘上一个矩阵A,只是相当于给这个向量乘上了一个系数λ。偌大一个矩阵A对向量x的作用竟然本质上不过只是和一个小小的数字λ相同而已!!!

好像只是对x1,x2进行了旋转。但是x3的方向没变。

l 特征分解(对角化):

对称矩阵一定可以对角化(概率:协方差矩阵就是对角阵)

(PCA 就是根据矩阵的特征值来降维。)

协方差矩阵:

降维之后(降行维数),我们让列(a1 a2 a3)的方差尽可能大,让行之间(a1 a2 a3, b1 b2 b3)的方差尽可能小。

注意:Cx 为协方差矩阵  求出特征向量 * 原始矩阵 = 目标阵

优化问题:(数值分析知识)。

原文地址:https://www.cnblogs.com/WSX1994/p/9676698.html

时间: 2024-08-29 12:46:55

机器学习中的重点数学知识的相关文章

关于Java中面向对象章节、IO 流中的重点基础知识。

一.面向对象的三大特征,以及作用. 答:面向对象的三大特征即,封装性.继承性.多态性. 其分别的作用为 : 封装作用:将数据封装起来,提高数据的安全性, 继承作用:提高代码的复用性,减少冗余代码. 多态性:应用程序不必对每个派生类进行方法调用,只需要对抽象基类处理即可,大大提高程序的复用性,可以提高可扩充性和可维护性. 二.多态中的向上转型 的作用以及向下转型使用的原因 答:在多态中向上转型的是作用是,父类的引用对象名指向子类的实体,也就是用一个抽象的基类去调用每一个派生子类,向下转型的原因为,

Unity3d修炼之路:游戏开发中,3d数学知识的练习【1】(不断更新.......)

#pragma strict public var m_pA : Vector3 = new Vector3(2.0f, 4.0f, 0.0f); public var m_pB : Vector3 = new Vector3(-4.0f, 2.0f,0.0f); private var m_pTemp : Vector3 = new Vector3(0.0f,0.0f,0.0f); private var m_fTemp : float = 0.0f; private var m_fAngle

机器学习中的基础知识(入门上篇)

前面我们已经给大家讲述了很多有关机器学习的概念,这些概念都是十分重要的,我们如果要学习人工智能的话就需要重视这些知识.在这篇文章我们接着给大家介绍机器学习中的基础知识,希望这篇文章能够给大家带来帮助. (1)正则化就是对模型复杂度的惩罚.正则化帮助防止过拟合.正则化包括不同种类:L1 正则化.L2 正则化.dropout正则化. (2)正则化率就是一种标量级,用lambda来表示,指正则函数的相对重要性. (3)表征就是将数据映射到有用特征的过程. (4)根目录就是指定放置 TensorFlow

机器学习中有关概率论知识的小结

一.引言 最近写了许多关于机器学习的学习笔记,里面经常涉及概率论的知识,这里对所有概率论知识做一个总结和复习,方便自己查阅,与广大博友共享,所谓磨刀不误砍柴工,希望博友们在这篇博文的帮助下,阅读机器学习的相关文献时能够更加得心应手!这里只对本人觉得经常用到的概率论知识点做一次小结,主要是基本概念,因为机器学习中涉及概率论的地方,往往知道基本概念就不难理解,后面会不定期更新,希望博友们多留言补充. 二.贝叶斯(Bayes)公式 通常把事件 A 的概率 P(A)叫做实验前的假设概率,即先验概率(pr

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系[email protected] 前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的.在上篇文章中便是基于特征值分解的一种解释.特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计

机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA)

机器学习中的数学(4)-线性判别分析(LDA), 主成分分析(PCA) 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系[email protected] 前言: 第二篇的文章中谈到,和部门老大一宁出去outing的时候,他给了我相当多的机器学习的建议,里面涉及到很多的算法的意义.学习方法等等.一宁上次给我提到,如果学习分类算法,最好从线性的入手,线性分类器最简单的就是

机器学习中的数学(2)-线性回归,偏差、方差权衡

机器学习中的数学(2)-线性回归,偏差.方差权衡 版权声明: 本文由LeftNotEasy所有,发布于http://leftnoteasy.cnblogs.com.如果转载,请注明出处,在未经作者同意下将本文用于商业用途,将追究其法律责任.如果有问题,请联系作者 [email protected] 前言: 距离上次发文章,也快有半个月的时间了,这半个月的时间里又在学习机器学习的道路上摸索着前进,积累了一点心得,以后会慢慢的写写这些心得.写文章是促进自己对知识认识的一个好方法,看书的时候往往不是非

MIT一牛人对数学在机器学习中的作用给的评述

感觉数学似乎总是不够的.这些日子为了解决research中的一些问题,又在图书馆捧起了数学的教科书. 从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识.Learning和Vision都是很多种数学的交汇场.看着不同的理论体系的交汇,对于一个researcher来说,往往是非常exciting的enjoyable的事情.不过,这也代表着要充分了解这个领域并且取得有意义的进展是很艰苦的. 记得在两年前的一次blog里面,提到过和learning有关的数

机器学习中概率论知识复习

机器学习先验知识概率论部分,发现看Machine Learning(-Andrew Ng)课程的时候中间有推导过程不是很明白,遂针对性复习. 知识内容组织结构,参考:<Probability Theory Review for Machine Learning>(Machine Learning-Andrew Ng,课程讲义复习笔记2) 内容补充,参考维基百科. 公式编辑参考:http://meta.math.stackexchange.com/questions/5020/mathjax-b