映射的微分

映射的微分

1.与其他教材的不同以及教材知识的补充
这里笔者手边的教材是中科大史济怀和常庚哲(缅怀下仙逝的常先生),与其他教材有轻微的不同。一部分国外和国内教材,此处对于多变量微分学,直接是从向量函数开始讲的,一部分教材里有一个个人认为的缺陷,就是对数理基础的要求极其的高,在这些书里,算子的性质往往是被理解的十分自然的,也就是说,他们不会花时间去解释性质为什么是这样,因为他们把线性代数的东西直接拿来了(有些书里在讨论函数正交或抽象的正定矩阵时你也会发现这些问题),甚至你的线代教材基于的数集是\(\mathbb{R}\),但是现在分析书里讨论的是\(\mathbb{Z}\)或者\(\mathbb{F}\),然后你可能会自然的考虑,那这些东西咱也不知道,能不能推过来啊?
如果你是自学党或者线性代数or高等代数的水平跟不上时,这不是你的问题,别滞于囹圄而寸步不前。这些困惑里艰深的部分往往不是自己能解答的,要多向他人请教。

在上一部分其实已经提出过这个\(\mathrm{d} f\left(x_{0}\right)=J f\left(x_{0}\right) h\),但限于数量函数,这里我们先从形式上推广出对于向量函数的结果来,再去讨论它的严格证明。
2.##形式上的推导
回想我们对于用矩阵重写的部分(第二节的3-1)的描述,我们知道矩阵相乘的一个性质在于,假定\(A\times B=C\),那么\(C_{i}=A_{i}\times B\)(\(A_{i}\)表示矩阵第i行)
也就是行行之间互不干扰,那么对于每一个行,具备了称为分量的条件,我们让每一个行成为一个分量,这样应该能满足每一行的结果间是独立的。也就是说,它能继承我们对于函数只有单独一个一行(即使一行只有一个数字)时讨论的结果,同时,可以在维度上扩充。这样\(\nabla\)(看成\(A\times B=C\)中的A)只需在行的维度上扩充,也就是说
\[J f\left(x_{0}\right)=\left(\begin{array}{ccc}{\frac{\partial f_{1}\left(x_{0}\right)}{\partial x_{1}}} & {\dots} & {\frac{\partial f_{1}\left(x_{0}\right)}{\partial x_{n}}} \\ {\vdots} & {} & {\vdots} \\ {\frac{\partial f_{m}\left(x_{0}\right)}{\partial x_{1}}} & {\cdots} & {\frac{\partial f_{m}\left(x_{0}\right)}{\partial x_{n}}}\end{array}\right)\]
对于向量函数,它的微分应该满足我们这样的期待
3.##一个证明的思路
首先要给出推广后可微的定义,才能继续。
对于f,如果满足
\[f\left(x_{0}+h\right)-f\left(x_{0}\right)=A h+r(h)\]
且\(\lim _{h \rightarrow 0} \frac{\|r(h)\|}{\|h\|}=0\),
则f在\(x_0\)处可微。
然后我们沿着之前的形式推导,既然维数是有限的,对于每个\(r\)的分量极限都是成立的,那么整合到一起,很容易由范数的关系得到新的极限也能成立。
4.##关于一个可能没用的理解
线代里我们都知道,非常重要的意义在于把映射推广到里矩阵。函数复合推广到了相乘,对于多元微积分,这或许是线代第一次真正意义上的应用,以后我们认为Jacobi矩阵就是一个”微分“或者”导数“,因为他们两个实质的意义已经没有区分的必要
5.#可微判定定理的推广
我们把第二节\(4-2\)的定理推广
若Jacobi矩阵存在,且\(\nabla f\)各元素在\(x_0\)处连续,则\(f\)在\(x_0\)可微

原文地址:https://www.cnblogs.com/hansilver/p/11607024.html

时间: 2024-10-08 09:30:09

映射的微分的相关文章

和机器学习和计算机视觉相关的数学(转载)

1. 线性代数 (Linear Algebra): 我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要.这门学科对于Learning是必备的基础,对它的透彻掌握是必不可少的.我在科大一年级的时候就学习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是Introduction to Linear Algebra (3rd Ed.)  by Gilbert Strang.这本书是MIT的线性代数课使用的教材,也是被很多其它大学选用的经典教材.它的难度适中,讲解清晰,重要

[转]和机器学习和计算机视觉相关的数学

http://blog.sina.com.cn/s/blog_6833a4df0100nazk.html 1. 线性代数 (Linear Algebra): 我想国内的大学生都会学过这门课程,但是,未必每一位老师都能贯彻它的精要.这门学科对于Learning是必备的基础,对它的透彻掌握是必不可少的.我在科大一年级的时候就学习了这门课,后来到了香港后,又重新把线性代数读了一遍,所读的是 Introduction to Linear Algebra (3rd Ed.) by Gilbert Stra

[转]机器学习和计算机视觉----数学基础

http://blog.sina.com.cn/s/blog_6b99cdb50101ix0l.html 和机器学习和计算机视觉相关的数学之一 (以下转自一位MIT牛人的空间文章,写得很实际:) 作者:Dahua 感觉数学似乎总是不够的.这些日子为了解决research中的一些问题,又在图书馆捧起了数学的教科书.从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识.Learning和Vision都是很多种数学的交汇场.看着不同的理论体系的交汇,对于一个

[转]论数学在机器学习中的作用

机器学习和计算机视觉都是很多种数学的交汇场.看着不同的理论体系的交汇,对于一个researcher来说,往往是非常exciting的enjoyable的事情.不过,这也代表着要充分了解这个领域并且取得有意义的进展是很艰苦的. Linear Algebra (线性代数) 和 Statistics (统计学) 是最重要和不可缺少的. 这代表了Machine Learning中最主流的两大类方法的基础.一种是以研究函数和变换为重点的代数方法,比如Dimension reduction,feature

和机器学习和计算机视觉相关的数学

和机器学习和计算机视觉相关的数学 和机器学习和计算机视觉相关的数学之一 (以下转自一位MIT牛人的空间文章,写得很实际:) 作者:Dahua 感觉数学似乎总是不够的.这些日子为了解决research中的一些问题,又在图书馆捧起了数学的教科书.从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识.Learning和Vision都是很多种数学的交汇场.看着不同的理论体系的交汇,对于一个researcher来说,往往是非常exciting的enjoyable

需要学习的数学

1.Linear Algebra (线性代数) 和 Statistics (统计学) 是最重要和不可缺少的. 这代表了Machine Learning中最主流的两大类方法的基础.一种是以研究函数和变换为重点的代数方法,比如Dimension reduction,feature extraction,Kernel等,一种是以研究统计模型和样本分布为重点的统计方法,比如Graphical model, Information theoretical models等.它们侧重虽有不同,但是常常是共同使

MIT一牛人对数学在机器学习中的作用给的评述

感觉数学似乎总是不够的.这些日子为了解决research中的一些问题,又在图书馆捧起了数学的教科书. 从大学到现在,课堂上学的和自学的数学其实不算少了,可是在研究的过程中总是发现需要补充新的数学知识.Learning和Vision都是很多种数学的交汇场.看着不同的理论体系的交汇,对于一个researcher来说,往往是非常exciting的enjoyable的事情.不过,这也代表着要充分了解这个领域并且取得有意义的进展是很艰苦的. 记得在两年前的一次blog里面,提到过和learning有关的数