机器学习之数学基础(一)-微积分,概率论和矩阵

学习python快一年了,因为之前学习python全栈时,没有记录学习笔记想回顾发现没有好的记录,目前主攻python自然语言处理方面,把每天的学习记录记录下来,以供以后查看,和交流分享。~~(。?ω?。) ~~

这一系列主要学习和回顾机器学习的数学部分。

微积分:

一:两边夹定理

二:极限存在定理

三:两个常用的极限

四:常用函数的导数

五:泰勒公式-麦克劳林公式

六:方向导数

七:梯度的概念

八:凸函数-如x2属于凸函数

概率论:

一:基本概率公式

二:常用分布

三:Logistic函数

原文地址:https://www.cnblogs.com/felixwang2/p/8590031.html

时间: 2024-08-24 07:24:39

机器学习之数学基础(一)-微积分,概率论和矩阵的相关文章

【机器学习】K-Means 聚类是特殊的矩阵分解问题

[机器学习]K-Means 聚类是特殊的矩阵分解(Matrix Factorization)问题 原文是:<k-Means Clustering Is Matrix Factorization> 本博客是该论文的阅读笔记,不免有很多细节不对之处. 还望各位看官能够见谅,欢迎批评指正. 更多相关博客请猛戳:http://blog.csdn.net/cyh_24 如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50408884 论文

机器学习的数学基础(1)--Dirichlet分布

机器学习的数学基础(1)--Dirichlet分布 这一系列(机器学习的数学基础)主要包括目前学习过程中回过头复习的基础数学知识的总结. 基础知识:conjugate priors共轭先验 共轭先验是指这样一种概率密度:它使得后验概率的密度函数与先验概率的密度函数具有相同的函数形式.它极大地简化了贝叶斯分析. 如何解释这句话.由于 P(u|D) = p(D|u)p(u)/p(D)   (1.0式) 其中D是给定的一个样本集合,因此对其来说p(D)是一个确定的值,可以理解为一个常数.P(u|D)是

(转)机器学习的数学基础(1)--Dirichlet分布

转http://blog.csdn.net/jwh_bupt/article/details/8841644 这一系列(机器学习的数学基础)主要包括目前学习过程中回过头复习的基础数学知识的总结. 基础知识:conjugate priors共轭先验 共轭先验是指这样一种概率密度:它使得后验概率的密度函数与先验概率的密度函数具有相同的函数形式.它极大地简化了贝叶斯分析. 如何解释这句话.由于 P(u|D) = p(D|u)p(u)/p(D)   (1.0式) 其中D是给定的一个样本集合,因此对其来说

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用

机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系[email protected] 前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的.在上篇文章中便是基于特征值分解的一种解释.特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计

机器学习数学系列(1):机器学习与数学基础知识

目录: 机器学习基础: 机器学习的分类与一般思路 微积分基础: 泰勒公式,导数与梯度 概率与统计基础: 概率公式.常见分布.常见统计量 线性代数基础: 矩阵乘法的几何意义 这是一张非常著名的图,请仔细挖掘其信息量.以期它在整体上指引我们的学习. 1 机器学习基础 1.1 机器学习分类 有监督学习.无监督学习.半监督学习的概念自行了解一下,不再赘述,简单贴3幅图,自行比对.       1.2 机器学习的一般思路 得分函数: 损失的函数的最优化问题: (左)非凸函数               

机器学习:2.机器学习相关数学基础

本周任务: 请确保熟悉并理解机器学习数学部分常用相关概念: 1.高等数学 1)函数 2)极限 3)导数 4)极值和最值 5)泰勒级数 6)梯度 7)梯度下降 2.线性代数 1)基本概念 2)行列式 3)矩阵 4)最小二乘法 5)向量的线性相关性 3.概率论 1)事件 2)排列组合 3)概率 4)贝叶斯定理 5)概率分布 6)期望和方差 7)参数估计 2.本周视频学习内容:https://www.bilibili.com/video/BV1Tb411H7uC?p=2 1)P2 概率论与贝叶斯先验

第二次-机器学习相关数学基础

.本周视频学习内容:https://www.bilibili.com/video/BV1Tb411H7uC?p=2 1)P2 概率论与贝叶斯先验 2)P3 矩阵和线性代数 机器学习是一门多领域交叉学科,涉及较多的数学知识,本节课知识之前都有学过,这次根据重点重新梳理一遍,一定要多加重视.通过观看视频,大家对课程的数学基础部分加深印象. 建议大家边看边做笔记,记录要点及所在时间点,以便有必要的时候回看.学习笔记也是作业的一部分. 3.作业要求: 1)贴上视频学习笔记,要求真实,不要抄袭,可以手写拍

机器学习的数学基础

一.概述 我们知道,机器学习的特点就是:以计算机为工具和平台,以数据为研究对象,以学习方法为中心:是概率论.线性代数.数值计算.信息论.最优化理论和计算机科学等多个领域的交叉学科.所以本文就先介绍一下机器学习涉及到的一些最常用的的数学知识. 二.线性代数 2-1.标量 一个标量就是一个单独的数,一般用小写的的变量名称表示. 2-2.向量 一个向量就是一列数,这些数是有序排列的.用过次序中的索引,我们可以确定每个单独的数.通常会赋予向量粗体的小写名称.当我们需要明确表示向量中的元素时,我们会将元素

(转)机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用

版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系[email protected] 前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的.在上篇文章中便是基于特征值分解的一种解释.特征值和奇异值在大部分人的印象中,往往是停留在纯粹的数学计算中.而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有