向量点乘的推导

向量P = (Px   Py  Pz), Q = (Qx  Qy  Qz);规定向量的点乘  PQ = (PxQx   PyQy   PzQz);那么点乘的值等于什么呢, 是怎么推导出来的呢, 下面我们看一下:

1: 首先回顾下中学学习的余弦定理, 对于一个三角形有三条边a, b, c;  并且a, b之间夹角为@, 则有:

c^2 = a^2 + b^2 - 2ab [email protected], 当@为90度时, 满足勾股定理;

2: 向量点积的结果就是由余弦定理推导而来的,看图:

参考《3D游戏与计算机图形学中的数学方法》 一书。

时间: 2024-08-09 07:29:45

向量点乘的推导的相关文章

向量叉乘的推导

向量P =(Px   Py  Pz), Q = (Qx   Qy  Qz),规定PXQ = (PyQz - PzQy   PzQx - PxQz  PxQy - PyQx): 那么这个叉积的结果是什么呢, 怎么推导出来的呢. 1: 首先可以看到,这叉乘出来的东西是个向量. 2: 两边取模,然后再平方,就可以推导出来了, 如图:

【Unity Shaders】学习笔记——SurfaceShader(十)镜面反射

[Unity Shaders]学习笔记——SurfaceShader(十)镜面反射 如果你想从零开始学习Unity Shader,那么你可以看看本系列的文章入门,你只需要稍微有点编程的概念就可以. 水平有限,难免有谬误之处,望指出. Unity内置的高光函数 Unity内置了一种高光光照模型——BlinnPhone. 使用方法如下: Shader "Custom/BlinnPhong"{ Properties { _MainTex ("Base (RGB)", 2D

支持向量机学习笔记--原理篇(二)

支持向量机学习笔记(二) 前言 在上一篇中,讲述了感知机是什么.接下来将叙述感知机的对偶形式,这在解决支持向量机问题中非常有用,因为直接求解存在困难时,我们往往会把它变换到其等价形式进行求解.这篇将继续上篇内容,把遗留的两个问题解释清楚. 感知机 感知机学习算法的对偶形式 现在考虑感知机学习算法的对偶形式.感知机学习算法的原始形式和对偶形式在支持向量机学习算法的原始形式和对偶形式相对应. 对偶形式的基本想法是,将w和b表示为实例xi和标记yi的线性组合的形式,通过求解其系数而求得w和b,不失一般

Backpropagation, Intuitions

原文地址:http://cs231n.github.io/optimization-2/ ################################################################ 内容列表: 1.介绍 2.简单表达式,解释梯度 3.复合表达式,链式法则,反向传播 4.反向传播的直观理解 5.模块化:Sigmoid案例 6.实际应用反向传播:分段计算 7.逆向流模式(Patterns in backward flow) 8.向量运算的梯度(Gradients

UnityShader镜面反射计算与反射光向量推导

面试考察频率:?? 注:本文章主要讲解计算方法及推导,原理暂不讲解 什么是镜面反射? ? 镜面反射(Specular)又叫高光反射,主要可以来模拟非常光滑的平面受到光线照射所产生的反射效果,使得物体看起来更光滑有光泽. 如何实现镜面反射? ? 镜面反射主要有两种实现方式: ? Phong模型: ? 该模型中关键步骤就是计算反射光线.需要提前知道的信息有: ? Ks(物体材质的高光反射颜色即材质rgb分量),lightColor(光的颜色即光的rgb分量),shininess(为反光度系数,越大亮

向量版 点到平面距离 的推导

平面方程:  p*n  + d  = 0 : p 为平面上一点,  n 为法线,  d 为原点到平面的距离 点到平面距离的推导过程, 重点是法线n是单位向量, 这就简化了推导, 使其更容易理解. 如图所示: 首先:  Q到平面的距离  r  =  |Q - Q'| 其次:  平面法向量n 和  Q-Q' 平行, 又因为n是单位向量, 可得  Q-Q'   = rn 然后:  Q = rn + Q',  然后两边乘以 n 得  nQ  = rn*n + Q'n 之后:  因为Q'在平面上, 所以由

向量点乘叉乘推导公式

点乘 推导公式1: a•b = ax*bx + ay*by =  (|a|*sinθ1) * (|b| * sinθ2) +   (|a| * cosθ1) * (|b| * cosθ2) = |a||b|(sinθ1*sinθ2 + cosθ1*cosθ2) =|a||b|(cos(θ1-θ2)) = |a||b|cosθ 推导公式2: 几何意义是:是一条边向另一条边的投影乘以另一条边的长度 叉乘: 原文地址:https://www.cnblogs.com/honghong87/p/11517

向量内积的推导

基本式 几何 對稱性: . 線性函數:設 .固定  時, 而且 同樣道理,固定  時,

支持向量到最优超平面的距离的推导

The issue at hand is to find the parameters wo and bo for the optimal hyperplane, given the training set {(xi,di)}. 原文地址:https://www.cnblogs.com/donggongdechen/p/9943603.html