切向量,法向量,梯度



首先,说明所说的梯度与曲线的切向量垂直,即梯度方向是法向量方向:

设曲线x=x(t),y=y(t),z=z(t)是曲面u(x,y,z)=c上的一条曲线(c为常数,u(x,y,z)=c表示等高线),由于该曲线在曲面上,所以x=x(t),y=y(t),z=z(t)满足方程u(x,y,z)=c,即u(x(t),y(t),z(t))=c,利用复合函数求导法则,方程两边同时对t求导数,得 (eu/ex)*x‘(t)+(eu/ey)*y‘(t)+(eu/ez)*z‘(t)=0,所以向量(x‘(t),y‘(t),z‘(t))【切向方向】与向量(eu/ex,eu/ey,eu/ez)【梯度】垂直。

但是,这里需要注意的这里的法向量方向是对等高线来说的,而非对曲面,曲面法向量需要添加对u求偏导。因为梯度方向是降维的,都是对自变量求导的。

而向量(x‘(t),y‘(t),z‘(t))表示曲线的切向量,向量(eu/ex,eu/ey,eu/ez)表示梯度,所以梯度和切向量垂直。

说道这里,可能还不好理解,用爬山来举例。

爬山是最快的方向就是直观上最陡的方向,我们看着是斜向上的。而爬山时梯度方向是水平的【延伸到高维就不能说水平了】,即把那个斜向上的方向投影到水平面上的方向,也就是等高线的法向量方向了。

总结,讨论梯度与切向量、法向量的关系时,切法向量均是对曲线来说的,而不是整个曲面的法向量。因为梯度的维度比曲线的维度地,这是需要记住的。

时间: 2024-10-20 04:34:53

切向量,法向量,梯度的相关文章

切向量,普通矢量,渐变

 首先,说明称切向量垂直梯度曲线,这是梯度方向的法向矢量方向: 设曲线x=x(t).y=y(t),z=z(t)是曲面u(x,y,z)=c上的一条曲线(c为常数.u(x,y,z)=c表示等高线),因为该曲线在曲面上,所以x=x(t),y=y(t).z=z(t)满足方程u(x,y,z)=c,即u(x(t),y(t),z(t))=c,利用复合函数求导法则,方程两边同一时候对t求导数,得 (eu/ex)*x'(t)+(eu/ey)*y'(t)+(eu/ez)*z'(t)=0,所以向量(x'(t),y

顶点法向量从物体坐标系变换到世界坐标系

3维网格模型的顶点的法向量一开始是定义在模型坐标系中的,在将模型布置在场景中后,根据光照模型计算颜色时需要用到顶点法向量,由于光照都是在世界坐标系中进行计算,这时用到的法向量也应该是定义在世界坐标系中.所以我们需要设法将顶点法向量从模型坐标系中转换到世界坐标系中. 我们已经知道通过缩放.旋转.平移三种基本操作合成的model矩阵可以将网格顶点坐标从模型坐标系中转换到世界坐标系中.那么这个model矩阵是否也可以将顶点法向量转换到世界坐标系呢?如果不行,那么需要找到一个可以完成这个任务的矩阵. 1

关于梯度、旋度和散度的直观理解

转载的,这很现实很直接,建议吃饭的时候别看.... 散度为零,说明是无源场:散度不为零时,则说明是有源场(有正源或负源) 若你的场是一个流速场,则该场的散度是该流体在某一点单位时间流出单位体积的净流量. 如果在某点,某场的散度不为零,表示该场在该点有源,例如若电场在某点散度不为零,表示该点有电荷,若流速场不为零,表是在该点有流体源源不绝地产生或消失(若散度为负). 一个场在某处,沿着一无穷小的平面边界做环积分,平面法向量即由旋度向量给定,旋度向量的长度则是单位面积的环积分值.基本上旋度要衡量的是

【转载】小谈导数、梯度和极值

小谈导数.梯度和极值 [转载请注明出处] http://www.cnblogs.com/jerrylead 记得在高中做数学题时,经常要求曲线的切线.见到形如之类的函数,不管三七二十一直接求导得到,这就是切线的斜率,然后就得到了处的切线. 上大学又学习了曲面切线和法向量的求法,求偏导是法向量,然后套公式求出切线. 一个经典例子如下: (来自web上某个<几何应用>ppt) 其中的向量n是F(x,y,z)的偏导数. 然而,这两者求法看似无关啊,中求得的是切线,然而下面的求偏导后却是法向量,为啥都

关于梯度下降算法的的一些总结

目录: 1. 前言 2. 正文 2.1 梯度 2.2 梯度下降算法 2.2.1 批量梯度下降算法 2.2.2 随机梯度下降算法 3.参考文献 1.前言  这篇随笔,记录的是个人对于梯度算法的些许理解. 由于充斥着太多关于梯度算法的各种说明软文,所以呢? 本文是从一个实例出发,来逐步使用各种算法进行求解,并顺便试图将每一种算法,按照自己的理解来阐述一遍. 好了 , 让我们愉快的开始吧~~~~~~~~ 注: 本文的核心思想主要是基于在斯坦福cs299的讲义上. 2  正文 为了不显得阐述过于唐突,我

方向导数、梯度、法线间的关系

在读书时候,数学里的好多东西记不清楚了感觉很模糊,所以为了加深印象防止遗忘所以记录一下,博客中参考的资料已在文末标明.博客中要是有啥错误,或者不好的地方欢迎指出一起探讨,嘿嘿. 方向导数: 函数在点P处,沿着方向V的变化率大小,得到结果是一个数值. 对于一个二元函数,其方向导数为(word里面写好公式复制不上来,气人只能截图) 证明如下:由 两边同时除以得到下式子: 梯度: 梯度这个东东是一个向量,既有大小也有方向.设函数在平面区域D内具有一阶连续偏导数,那么对于每一个点,都可以求出一个向量:这

机器学习入门之单变量线性回归(上)——梯度下降法

在统计学中,线性回归(英语:linear regression)是利用称为线性回归方程的最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析.这种函数是一个或多个称为回归系数的模型参数的线性组合.只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归(multivariate linear regression).——————维基百科 一直以来,这部分内容都是ML的敲门砖,吴恩达教授在他的课程中也以此为第一个例子,同时,本篇也参考了许多吴教授的内容. 在这里,我简单把

点云特征——法向量估计

点云法向量是最基本的点云特征,在诸多点云处理算法中起着至关重要的作用.本文记录了两种常用的点云法向量估计方法,分别针对一般点云和深度图两种点云组织形式. 一般点云的法向量估计 估计一般点云法向量的思路是根据邻域内的点拟合一个平面,则平面的法线方向即为点的法向量.记点的邻域为: \[\mathcal{N}=\{\mathcal{p}_i(x_i, y_i, z_i)|i=1,2,..,n\}\] 需拟合的平面的一般形式是: \begin{align} Ax+By+Cz+D &= 0 \notag

梯度下降法

梯度下降法在凸优化中应用很广泛.经常使用于求凸函数极值. 梯度是个向量.其形式为 一般是表示函数上升最快的方向.因此.我们仅仅须要每一步往梯度方向走一小步.终于就能够到达极值点,其表现形式为: 初始点为x0. 然后往梯度的反方向移动一小步r到x1. 再次往梯度反方向移动r到x2,... ....终于会越来越接近极值点min的. 迭代时的公式为X(n+1) = X(n) - r * grad(f) 以下举样例说明梯度下降法求极值点的有效性: #!/usr/bin/python # -*- codi