向量的范数

将学习到什么

范数可以看成 Euclid 长度的一种推广,范数在有关数值计算的算法分析以及估计中自然出现。本部分介绍其定义、内积导出的范数和相关的例子.

?


定义

?
实的或者复的向量空间上的范数的四条公理如下所示:
??定义 1: 设 \(V\) 是域 \(\mathbf{F}\)(\(\mathbf{F}=\mathbb{R}\) 或者 \(\mathbb{C}\))上的一个向量空间. 函数 \(\lVert \cdot \rVert : V \rightarrow \mathbb{R}\) 称为是一个范数,有时也称为向量范数,如果对所有 \(x,y \in V\) 以及所有 \(c\in \mathbf{F}\)),
??(1) $\lVert x \rVert \geqslant 0 $,非负性
??(1a) $\lVert x \rVert = 0 $ 当且仅当 \(x=0\),正性
??(2) $\lVert cx \rVert = \lvert c \rvert \lVert x \rVert $,齐性
??(3) \(\lVert x+y \rVert \geqslant \lVert x \rVert+ \lVert y \rVert\),三角不等式
?
这四个公理表达了平面上的 Euclid 长度的某些熟知的性质. Euclid 长度也有一些性质不能由这四条推出,比如平等四边形恒等式. 三角不等式表示的范数有次加性. 满足定义 1 中公理 (1)、(2) 以及 (3) 的函数 \(\lVert \cdot \rVert : V \rightarrow \mathbb{R}\) 称为半范数. 非零向量的半范数有可能为零.
?
??引理 2 : 如果 \(\lVert \cdot \rVert\) 是在一个实的或者复的向量空间 \(V\) 上的一个半向量范数,那么对所有 \(x,y \in V\) 都有 \(\lvert \lVert x \rVert - \lVert y \rVert \rvert \leqslant \lVert x-y \rVert\).
??证明:用 \(y=x+(y-x)\) 和 \(x=y+(x-y)\) 结合三角不等式推出.
?
与 \(\mathbb{R}^n\) 或者 \(\mathbb{C}^n\) 上的 Euclid 长度相关联的是向量 \(y\) 关于 \(x\) 的 Euclid 内积 \(y^*x\),它与两个向量之间的“角度”有某种关系:如果 \(y^*x=0\),则 \(x\) 与 \(y\) 正交.
?
??定义 3: 设 \(V\) 是域 \(\mathbf{F}\)(\(\mathbf{F}=\mathbb{R}\) 或者 \(\mathbb{C}\))上的一个向量空间. 函数 \(\langle \cdot, \cdot \rangle\):\(V \times V \rightarrow \mathbf{F}\) 称为一个内积,如果对所有 \(x,y,z \in V\) 以及所有 \(c \in \mathbf{F}\),
??(1) \(\langle x, x \rangle \geqslant 0\),非负性
??(1a) \(\langle x, x \rangle = 0\) 当且仅当 \(x=0\),正性
??(2) \(\langle x+y, z \rangle = \langle x, z \rangle +\langle y, z \rangle\),加性
??(3) $\langle cx, y \rangle = c \langle x,y \rangle $,齐性
??(4) $\langle x, y \rangle = \overline{\langle y, x \rangle} $, Hermite 性质
?
公理 (2)、(3) 以及 (4) 表明 \(\langle \cdot, \cdot \rangle\) 是一个半双线性函数,公理 (1a) 以及 (1) 要求当 \(x \neq 0\) 时有 \(\langle x, x \rangle > 0\). \(\mathbb{C}^n\) 上的 Euclid 上的内积 $\langle x, y \rangle = y^*x $ 满足内积五条公理.
?
设 \(a,b,c,d \in \mathbf{F}\) 以及 \(x,y,w,z \in \mathbf{F}^n\). 从定义 3 中的五条公理推导出下面的性质:
??(a) \(\langle x, cy \rangle = \bar{c} \langle x, y \rangle\)
??(b) \(\langle x, y+z \rangle = \langle x, y \rangle +\langle x, z \rangle\)
??(c) \(\langle ax+by, cw+dz \rangle = a\bar{c}\langle x, w \rangle + b\bar{c}\langle y, w \rangle + a\bar{d}\langle x, z \rangle + b\bar{d}\langle y, z \rangle\)
??(d) \(\langle x, \langle x, y\rangle y\rangle = \lvert \langle x,y \rangle \rvert ^2\)
??(e) 对所有 \(y \in V\) 都有 $\langle x, y \rangle = 0 $ 的充分必要条件是 \(x=0\).
?
性质 (a)~(d) 为所有的半双线性函数所具有,只有性质 (e) 依赖公理 (1) 以及 (1a). Cauchy-Schwarz 不等式是所有内积的一个重要性质.
?
??定理 4(Cauchy-Schwarz 不等式): 设 \(\langle \cdot, \cdot \rangle\) 是域 \(\mathbf{F}\)(\(\mathbf{F}=\mathbb{R}\) 或者 \(\mathbb{C}\))上向量空间 \(V\) 上的一个内积. 那么
\begin{align}
\lvert \langle x,y \rangle \rvert ^2 \leqslant \langle x, x \rangle \langle y, y \rangle , \quad \text{对所有},, x,y \in V
\end{align}
其中的等式当且仅当 \(x\) 与 \(y\) 线性相关时成立,即当且仅当对某个 \(\alpha \in \mathbf{F}\) 有 \(x=\alpha y\) 或者 \(y=\alpha x\) 时成立.
?
??推论 5: 如果 \(\langle \cdot, \cdot \rangle\) 是实的或者复的向量空间 \(V\) 上的内积,那么由 \(\lVert x \rVert = \langle x, x \rangle ^{1/2}\) 定义的函数 \(\lVert \cdots \rVert\):\(V \rightarrow [0,\infty)\) 是 \(V\) 上的一个范数.
?
如果 \(\langle \cdot, \cdot \rangle\) 是实的或者复的向量空间 \(V\) 上的内积,\(V\) 上的函数 \(\lVert x \rVert = \langle x, x \rangle ^{1/2}\) 称为从内积导出的,推论 5 确保 $\lVert \cdot \rVert $ 是 \(V\) 上的一个范数.
?
满足定义 3 中的内积定理 (1)、(2)、(3) 以及 (4) 但不一定满足公理 (1a) 的函数 \(\langle \cdot, \cdot \rangle\):\(V \times V \rightarrow \mathbf{F}\) 称为一个半内积,它是这样的一个半双线性函数:对所有 \(x\in V\) 满足 \(\langle x, x \rangle \geqslant 0\). 有关内积的一个重要的事实是:与内积一样,它们满足 Cauchy-Schwarz 不等式.
?
??定理 6: 设 \(\langle \cdot, \cdot \rangle\) 是域 \(\mathbf{F}\)(\(\mathbf{F}=\mathbb{R}\) 或者 \(\mathbb{C}\))上一个向量空间 \(V\) 上的半内积. 那么对所有 \(x,y \in V\) 有 $ \lvert \langle x,y \rangle \rvert ^2 \leqslant \langle x, x \rangle \langle y, y \rangle $,且由 \(\lVert x \rVert = \langle x, x \rangle ^{1/2}\) 定义的函数 \(\lVert \cdots \rVert\):\(V \rightarrow [0,\infty)\) 是 \(V\) 上的一个半范数.
?

范数的例子与内积的例子

?
向量 \(x=[x_1 \cdots x_n]^T \in \mathbb{C}^n\) 的 Euclid 范数(\(l_2\) 范数)
\begin{align}
\lVert x \rVert _2 = (\lvert x_1 \rvert ^2 + \cdots + \lvert x_n \rvert ^2)^{1/2}
\end{align}
可能是最为熟知的范数,因为 \(\lVert x-y \rVert _2\) 度量的是两个点 \(x,y \in \mathbb{C}^n\) 之间的标准的 Euclid 距离. 它是由 Euclid 内积(即 \(\lVert x \rVert _2 = \langle x, x\rangle ^{1/2} = (x^*x)^{1/2}\) )导出的,且它是酉不变的:对所有的 \(x \in \mathbb{C}^n\) 以及每个酉矩阵 \(U \in M_n\) 都有 \(\lVert Ux \rVert _2=\lVert x \rVert _2\). 事实上, Euclid 范数的正的纯量位数是 \(\mathbb{C}^n\) 上仅有的酉不变的范数.
?
\(\mathbb{C}^n\) 上的和范数(\(l_1\) 范数)是
\begin{align}
\lVert x \rVert _1 = \lvert x_1 \rvert + \cdots + \lvert x_n \rvert
\end{align}
这个范数也称为曼哈顿范数,也称为出租车范数,因为它模拟的是出租车在垂直的街道以及大道组成的网络上穿越的距离. 它是 \(\mathbb{C}^n\) 上的范数,却不是由内积导出的且不满足平等四边形恒等式.
?
\(\mathbb{C}^n\) 上的最大值范数(\(l_{\infty}\) 范数)定义为
\begin{align}
\lVert x \rVert _{\infty} = \max \{ \lvert x_1 \rvert ,\cdots, \lvert x_n \rvert \}
\end{align}
\(l_{\infty}\) 范数不是由内积导出的.
?
\(\mathbb{C}^n\) 上的 \(l_p\) 范数定义为
\begin{align}
\lVert x \rVert _p = (\lvert x_1 \rvert ^p + \cdots + \lvert x_n \rvert ^p)^{1/p},\quad p \geqslant 1
\end{align}
?
\(\mathbb{C}^n\) 上一个重要的离散的范数族填补了和范数与最大值范数之间的空隙. 对每一个 \(k=1,\cdots,n\), 向量 \(x\) 的 \(k\) 范数是通过将 \(x\) 的元素的绝对值按照非增次序排列,并将 \(k\) 个最大的值相加所得到的,即
\begin{align}
\lVert x \rVert _{[k]} = \lvert x_{i_1} \rvert + \cdots + \lvert x_{i_k} \rvert, \quad \text{其中} ,, \lvert x_{i_k} \rvert \geqslant \cdots \geqslant \lvert x_{i_n} \rvert
\end{align}
\(k\) 范数在酉不变矩阵范数的理论中起着重要的作用. 可以验证:对每一个 \(k=1,2,\cdots,\),$\lVert \cdot \rVert _{[k]} $ 都是 \(\mathbb{C}^n\) 上的范数,且 \(\lVert \cdot \rVert _{\infty}= \lVert \cdot \rVert _{[1]} \leqslant \lVert \cdot \rVert _{[2]} \leqslant \cdots \leqslant \lVert \cdot \rVert _{[n]} = \lVert \cdot \rVert _1\).
?


应该知道什么

  • 掌握相关定义
  • Cauchy-Schwarz 不等式
时间: 2024-07-31 18:10:48

向量的范数的相关文章

矩阵2范数与向量2范数的关系

向量2范数是对应元素平方和: 矩阵2范数是:其中是矩阵的最大特征值. 除此之外,矩阵有一个F范数(Frobenius范数)倒是跟向量的2范数比较相似,是矩阵内所有元素平方和: 矩阵的2范数是向量二范数对应的诱导范数.给定某一种向量范数 ,它所对应的矩阵范数定义为: 左边的范数是矩阵范数,而右边分子分母都是向量范数,因为也是一个向量,通过这种方式定义出来的矩阵范数称为矩阵的诱导范数.可以证明,矩阵的2范数是由向量2范数诱导定义的. 更多的诱导范数的例子可以参照维基百科:Matrix norm -

机器学习中的范数规则化之(一)L0、L1与L2范数

机器学习中的范数规则化之(一)L0.L1与L2范数 [email protected] http://blog.csdn.net/zouxy09 转自:http://blog.csdn.net/zouxy09/article/details/24971995 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一

机器学习中的范数规则化

机器学习中的范数规则化之(一)L0.L1与L2范数 [email protected] http://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正.谢谢. 监督机器学习问题无非就是"minimizeyour er

L0、L1与L2范数、核范数(转)

L0.L1与L2范数.核范数 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正.谢谢. 监督机器学习问题无非就是"minimizeyour error while regularizing your parameters",也就是在规则化参数的同时最

什么是矩阵的范数【转载】

在介绍主题之前,先来谈一个非常重要的数学思维方法:几何方法.在大学之前,我们学习过一次函数.二次函数.三角函数.指数函数.对数函数等,方程则是求函数的零点:到了大学,我们学微积分.复变函数.实变函数.泛函等.我们一直都在学习和研究各种函数及其性质,函数是数学一条重要线索,另一条重要线索--几何,在函数的研究中发挥着不可替代的作用,几何是函数形象表达,函数是几何抽象描述,几何研究"形",函数研究"数",它们交织在一起推动数学向更深更抽象的方向发展. 函数图象联系了函数

机器学习中的范数规则化 L0、L1与L2范数 核范数与规则项参数选择

http://blog.csdn.net/zouxy09/article/details/24971995 机器学习中的范数规则化之(一)L0.L1与L2范数 [email protected] http://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一些浅显

笔记︱范数正则化L0、L1、L2-岭回归&Lasso回归(稀疏与特征工程)

一.正则化背景 监督机器学习问题无非就是"minimizeyour error while regularizing your parameters",也就是在规则化参数的同时最小化误差.最小化误差是为了让我们的模型拟合我们的训练数据, 而规则化参数是防止我们的模型过分拟合我们的训练数据. 问题背景:参数太多,会导致我们的模型复杂度上升,容易过拟合. 作用: 1.约束参数,降低模型复杂度. 2.规则项的使用还可以约束我们的模型的特性.这样就可以将人对这个模型的先验知识融入到模型的学习当

paper 126:[转载] 机器学习中的范数规则化之(一)L0、L1与L2范数

机器学习中的范数规则化之(一)L0.L1与L2范数 [email protected] http://blog.csdn.net/zouxy09 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化.我们先简单的来理解下常用的L0.L1.L2和核范数规则化.最后聊下规则化项参数的选择问题.这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文.知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正.谢谢. 监督机器学习问题无非就是“minimizeyour er

L0、L1与L2范数

监督机器学习问题无非就是“minimizeyour error while regularizing your parameters”,也就是在规则化参数的同时最小化误差.最小化误差是为了让我们的模型拟合我们的训练数据,而规则化参数是防止我们的模型过分拟合我们的训练数据. 因为参数太多,会导致我们的模型复杂度上升,容易过拟合,也就是我们的训练误差会很小.但训练误差小并不是我们的最终目标,我们的目标是希望模型的测试误差小,也就是能准确的预测新的样本.所以,我们需要保证模型“简单”的基础上最小化训练