机器学习(三)线性代数

Linear Algebra

线性代数基础

(以下概念 大学期间线性代数课没有讲清楚,在这里梳理一下

向量空间、线性空间vector space:n维向量的全体所构成的集合叫做n维向量空间。

基,基底 basis: 向量空间V中任一向量都能由向量组a1,a2….an线性表示,那么该向量组为V的一个基。若向量组中每个向量都两两正交(orthogonal),则被称为正交基,若每个向量的模都为1,则成为标准正交基(Orthonormal basis)

同构:维数相等的线性空间同构。

同构即为两线性空间存在一一对应的关系

迹(trace): 对角线元素之和

Vec(x) 操作:将矩阵转换为元素。先列后行

公式: 

内积:将两向量映射到一个标量。

性质: 共轭对称,线性,非负性。

投影(projection): 线性变换p 使得 

正交性: 任选向量 x,y 那么 px和 y-py 是正交的 。

正交投影 orthogonal

线性独立:几何理解 不平行。

行列式:determinant

特征值:等式

λ为A的特征值,x为对应于λ的特征向量

矩阵逆:线性代数(同济版)P124页定理7 可得‘

其中,U为特征向量组成的,为对角线为特征值的对角阵。

梯度:

定义:

ξ为某方向

时间: 2024-12-30 04:15:08

机器学习(三)线性代数的相关文章

机器学习之线性代数

说明 题目是优达学城机器学习入门线性代数作业.下面是我的实现. 工具为jupyter notebook,不用该工具请自行导入相关依赖. 完整内容已上传到github:https://github.com/ZingP/machine-learning/tree/master/linear_algebra 本篇代码中引用的helper.py可到上面github上下载. 1 矩阵运算 1.1 创建一个4*4的单位矩阵 在创建矩阵之前注意选择seed: # 任意选一个你喜欢的整数,这能帮你得到稳定的结果

机器学习 (三) 逻辑回归 Logistic Regression

文章内容均来自斯坦福大学的Andrew Ng教授讲解的Machine Learning课程,本文是针对该课程的个人学习笔记,如有疏漏,请以原课程所讲述内容为准.感谢博主Rachel Zhang 的个人笔记,为我做个人学习笔记提供了很好的参考和榜样. § 3.  逻辑回归 Logistic Regression 1 分类Classification 首先引入了分类问题的概念——在分类(Classification)问题中,所需要预测的$y$是离散值.例如判断一封邮件是否属于垃圾邮件.判断一个在线交

机器学习基础-线性代数学习笔记

这些知识其实中国的学生上过高中的就都应该学过,但是我不敢说所有的学生都忘了,但是还能有几个还记得呢,这是为什么呢,因为填鸭式的教育方式存在问题,所以说学过和没学过区别不大,我现在有点悔恨当初没有好好学,可能你也在悔恨,但是过去的都过去了,人生还要继续,只能恶补了..... 我看的是网易云上的视频教程,http://study.163.com/course/courseMain.htm?courseId=1050010,讲的不错,建议想学机器学习的同学看一下. 线性代数是什么? 代数->数的抽象表

机器学习(三) Jupyter Notebook, numpy和matplotlib的详细使用 (上)

工欲善其事,必先利其器.在本章,我们将学习和机器学习相关的基础工具的使用:Jupyter Notebook, numpy和matplotlib.大多数教程在讲解机器学习的时候,大量使用这些工具,却不对这些工具进行系统讲解.我特意添加了这个章节,让同学们在后续编写机器学习算法的过程中,更加得心应手! 一.Jupyter Notebook基础 a--b:在Jupyter Notebook  选中的内容上面添加单元格------ 下面添加单元格 y: change cell to code m: ch

机器学习三 -- 用Python实现K-近邻算法

Python语言实现机器学习的K-近邻算法 写在前面 额...最近开始学习机器学习嘛,网上找到一本关于机器学习的书籍,名字叫做<机器学习实战>.很巧的是,这本书里的算法是用Python语言实现的,刚好之前我学过一些Python基础知识,所以这本书对于我来说,无疑是雪中送炭啊.接下来,我还是给大家讲讲实际的东西吧. 什么是K-近邻算法? 简单的说,K-近邻算法就是采用测量不同特征值之间的距离方法来进行分类.它的工作原理是:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即

机器学习三 卷积神经网络作业

本来这门课程http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML16.html 作业是用卷积神经网络做半监督学习,这个还没完全解决,于是先从基础的开始,用keras 实现cifar10. 以下是代码 1 # -*- coding: utf-8 -*- 2 __author__ = 'Administrator' 3 4 5 from keras.datasets import cifar10 6 from keras.utils import np_uti

机器学习三--分类--邻近取样(Nearest Neighbor)

最邻近规则分类 K-Nearest Neighbor 步骤: 1.为了判断未知实例的类别,以所有已知类别的实例作为参考. 2.选择参数K. 3.计算未知实例与所有已知实例的距离. 4.选择最近的K个已知实例. 5.根据少数服从多数,让未知实例归类为K个最邻近样本中最多数的类别. 优点:简单,易于理解,容易实现,通过对K的选择可具备丢噪音数据的强壮性. 缺点:1.需要大量空间存储所有已知实例.2.当样本分布不均衡时,比如其中一类样本实例数量过多,占主导的时候,新的未知实例很容易被归类这个主导样本.

模式识别与机器学习(三)

最大最小距离和层次聚类算法的一个共同特点是某个模式一旦划分到某一类之后,在后续的算法过程中就不再改变了,而简单聚类算法中类心一旦选定后,在后继算法过程中也不再改变了.因此,这些方法效果一般不会太理想. 为解决该问题,可以采用动态聚类法: 使用动态聚类法的要点: 确定模式和聚类的距离测度.当采用欧式距离时,是计算此模式和该类中心的欧式距离:为能反映出类的模式分布结构,可采用马氏距离. 确定评估聚类质量的准则函数. 确定模式划分以及聚类合并或分裂的规则. 基本步骤: 建立初始聚类中心,进行初始聚类

机器学习五步走 |

机器学习五步走 | 我爱机器学习 机器学习五步走 2014年07月24日 经常会有人问“我该如何在机器学习方面更进一步,我不知道我接下来要学什么了.” 一般我都会给出继续钻研教科书的答案. 每当这时候我都会收到一种大惑不解的表情.但是进步确实就是持续的练习,保持较强的求知欲,并尽你可能的完成具有挑战性的工作.其实这些你都懂的,是吧! 但是为什么偏偏是教科书呢?因为他是为数不多的几种可以让你真真让你获取坚实知识的媒介.是的,你可以选择选一门课,注册MOOC,参加一些讨论班.但是只有教材才是会让你持

机器学习和深度学习资料合集

机器学习和深度学习资料合集 注:机器学习资料篇目一共500条,篇目二开始更新 希望转载的朋友,你可以不用联系我.但是一定要保留原文链接,因为这个项目还在继续也在不定期更新.希望看到文章的朋友能够学到更多.此外:某些资料在中国访问需要梯子. <Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.Deep Learning. <Deep Learning in