【线性代数】线性相关性、基和维数

一、线性相关性

什么情况下,向量X1,X2,……,Xn是线性无关的?

答:当向量X1,X2,……,Xn的线性组合(线性组合时系数不能全为0)不为零向量时,它们是线性无关的。即方程

不存在非零解。

对于一个矩阵A来说,当A总各列向量是线性无关时,则Ax=0的解只有0向量,即矩阵A的零空间只有零向量。 如果各列向量是相关的,则矩阵A的零空间中还存在一些其他的向量。

当矩阵A各列是线性无关的,则矩阵A各列都有主元,自由变量的个数为0。

二、空间的基

我们知道,矩阵各列的线性组合生成矩阵的列向量。但是,矩阵的各列有可能不是线性相关的。我们关心的是这样的一组向量:既能生成空间,又是线性无关的。这样的向量我们称为空间的基。

如果要确定一个空间,我们只需要知道该空间的基,就了解了该空间的所有信息。例如:在三维空间中,向量的一个基是:

当然,我们还可以写出其他的基,只需要满足基的两个性质:1、生成空间;2、线性无关。但是基中向量的个数是一样的。

对于一个n阶的方阵A的各列想要成为n维空间的基的话,该方阵必须是可逆的。

三、空间的维数

维数的定义:空间内任意基内向量个数称为空间的维数。

空间内所有的基内向量个数是相同的,都指空间的维数。

下面我们来举例说明上述概念:假设矩阵为A:

矩阵A的各列生成矩阵A的列空间。

矩阵A的各列不是A的列空间的基,因为它们线性相关,列空间的一个基是矩阵的第一、二列。

我们可以通过消元知道,该矩阵的秩为2,该列空间的维数为2。即矩阵的秩是列空间的维数!

原文:http://blog.csdn.net/tengweitw/article/details/40921209

作者:nineheadedbird

时间: 2024-10-08 15:11:52

【线性代数】线性相关性、基和维数的相关文章

数学-线性代数导论-#10 线性相关性、向量空间的基和维数

线性代数导论-#10 线性相关性.向量空间的基和维数 这节课中,我们先讲了前面的课程中一直提及的线性相关性的具体定义,并以此为基础建立了向量空间的"基"和"维数"的定义,最后归纳为一种已知若干向量求其生成的空间的基和维数的系统方法. 首先是线性相关性的定义. 已知一个由n个向量构成的向量组[V1,V2,-,Vn],如果存在n个系数[C1,C2,-,Cn],使得各CiVi(i=1,2,3,-,n)的和为0,则称这组向量线性相关.反之,如不存在,则称其线性无关. 当然,

基、维数、子空间、维数下降

一.问题的提出 受到空间.平面.直线不同维数的影响,始终很难理解基(一组线性无关向量)的长短和维数的区别.基的长短=维数? 要知道空间的表示,基是三个自由度:平面则是两个自由度.在投影是维数下降... 看起来非常混沌!! 二.问题的分析 先分析几个结论: (1)子空间的维数≤原空间的维数 因为子空间的集合是原空间集合的子集,毫无疑问,子空间所需要的线性无关向量个数≤原空间所需要的线性无关向量个数,因此,结论得以证明. (2)基的长短≠维数 举个反例,显然(a1,a2,0),满足加法和数乘运算封闭

维数诅咒

介绍 在这篇文章中,我们将讨论所谓的"维数的诅咒",并解释为什么在设计分类器时它是很重要的.以下各节我会提供这个概念直观的解释,并用一个由于维数灾难导致的过拟合例子图解说明. 考虑这样一个例子,我们有一组图像,其中每个表示猫或狗.我们想创建一个分类器,它能够自动识别狗和猫.要做到这一点,我们首先需要考虑每个对象类的描述,该描述可以用数字来表示.这样的数学算法,即分类器,可以用这些数字来识别对象.例如,我们可以认为猫和狗有不同的颜色.区分这两个类的一种可能描述可以由三个数字组成:平均红色

分类问题中的“维数灾难”

在看机器学习的论文时,经常会看到有作者提到“curse of dimensionality”,中文译为“维数灾难”,这到底是一个什么样的“灾难”?本文将通过一个例子来介绍这令人讨厌的“curse of dimensionality”以及它在分类问题中的重要性. 假设现在有一组照片,每一张照片里有一只猫或者一条狗.我们希望设计一个分类器可以自动地将照片中的动物辨别开来.为了实现这个目标,首先需要考虑如何将照片中的动物的特征用数字的形式表达出来.猫与狗的最大区别是什么?有人可能首先想到猫与狗的颜色不

维数灾难

Content 1 引言 2 维数灾难与过拟和 3 怎样避免维数灾难 4 总结 1 引言 本文章讨论的话题是“curse of dimension”,即维数灾难,并解释在分类它的重要性,在下面的章节我会对这个概念做一个直观的解释,并清晰的描述一个由维数灾难引起的过度拟合的问题. 下面不如正题,考虑我们有一堆猫和狗的图片,现在要做一个分类器,它可以把猫和狗自动并且正确分类.所以对这个两个类别,首先需要一组描述符,使这两个类别可以被表示为数字,分类器可以使用数字来决定类别(如Logistic Reg

《Linear Algebra and Its Applications》-线性相关性

这篇文章主要简单的记录所谓的“线性相关性”. 线性相关性的对象是向量R^n,对于向量方程,如果说x1v1 + x2v2 + …+xmvm = 0(其中xi是常数,vi是向量)有且仅有一个平凡解,那么我们称m个向量组成的集合{v1,v2,v3…vm}是一个线性相关集,反之,则称向量集合{v1,v2,v3,…vm}是线性无关的. 这个定义似乎显得有些唐突,我们反过来理解所谓的“线性相关”,即在一组非零解的情况下,我们将某个一个系数xi不为0的向量移到等式的另一侧,从这种形式来看,我们得到了向量vi关

Objective-C 下用 NSArray 和 NSMutableArray 定义二维数组跟多维数

Objective-C 下用 NSArray 和 NSMutableArray 定义二维数组跟多维数组 目录 问题描述 Objective-C 中的数组对像 NSArray 和 NSMutableArray 简介 二维数组:嵌套两次的 NSMutableArray 多维数组:嵌套多次的 NSMutableArray 问题描述 说实话,不太习惯面向对象编程,所以在操作 Objective-C 中数组对象时,总是忍不住跟 C 中的数组做比较,正好要建立一个二维数组,需要根据二维数组的下标来做相应的设

Tensorflow描述张量的维度:阶,形状以及维数

张量 TensorFlow用张量这种数据结构来表示所有的数据.你可以把一个张量想象成一个n维的数组或列表.一个张量有一个静态类型和动态类型的维数.张量可以在图中的节点之间流通. 阶 在TensorFlow系统中,张量的维数来被描述为阶.但是张量的阶和矩阵的阶并不是同一个概念.张量的阶(有时是关于如顺序或度数或者是n维)是张量维数的一个数量描述. 比如,下面的张量(使用Python中list定义的)就是2阶. t = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]   你可以认

HOG参数简介及Hog特征维数的计算(转)

HOG构造函数 CV_WRAP HOGDescriptor() :winSize(64,128), blockSize(16,16), blockStride(8,8),      cellSize(8,8),nbins(9), derivAperture(1), winSigma(-1), histogramNormType(HOGDescriptor::L2Hys),L2HysThreshold(0.2), gammaCorrection(true), nlevels(HOGDescript