卷积相关

1. 单位复数根

1.1. 复数

  为了解决负数开方的问题, 人们引入了虚数单位 $i = \sqrt{-1}$ .

  形如 $a + bi$ 的数被称为复数, $a$ 称为复数的实部, $b$ 称为复数的虚部.

  以实部为 $x$ 轴, 虚部为 $y$ 轴, 建立平面直角坐标系.

  我们称这个平面为复平面.

  在复平面中, 点与复数一一对应, 向量与虚数也一一对应.

  为此, 我们还得到了复数的三角表示.

  $a + bi = r(\cos \theta + i \sin \theta)$ , 其中 $r = \sqrt{a ^ 2 + b ^ 2}$ .

1.2. 复数的运算

  对于复数, 我们定义加法运算.

  $(a + bi) + (c + di) = (a + c) + (b + d)i$ .

  几何意义: 复平面上, 对应向量的加法, 即遵循三角形法则和平行四边形法则.

  我们定义乘法运算.

  $(a + bi) \times (c + di) = (ac - bd) + (ad + bc)i$ .

  用三角形式进行研究:

  $r(\cos \theta + i \sin \theta) \times r_1(\cos \theta_1 + i \sin \theta_1) = rr_1 [\cos (\theta + \theta_1) + i \sin (\theta + \theta_1)]$ .

  几何意义: 将 A 相同旋转 B 与 x 轴的夹角度数, 将长度变为原来的 |B| 倍.

  进而可以推导出乘方运算.

  ${[r(\cos \theta + i \sin \theta)]} ^ n = r ^ n (\cos n\theta + i \sin n \theta)$ .

  既然能够乘方, 我们同样能够开方, 就是所谓的伏地膜定理.

  现在的问题是: 求 $r(\cos \theta + i \sin \theta)$ 的所有 $n$ 次方根.

  设 $p(\cos \alpha + i \sin \alpha) = \sqrt[n]{r(\cos \theta + i \sin \theta)}$ .

  $p ^ n (\cos n\alpha + i \sin n\alpha) = r (\cos \theta + i \sin \theta)$ .

  $p ^ n = r, n\alpha \equiv \theta(\mod 2\pi)$ .

  $p = \sqrt[n]{r}, \alpha = \frac{\theta + 2k\pi}{n}, k \in Z$ .

  由此可知当 $k = 0, 1, ..., n-1$ 时, 一共有 $n$ 个根 $\alpha = \frac{\theta}{n}, \frac{\theta + 2\pi}{n} , ..., \frac{\theta + (n-1)\pi}{n}$ .

时间: 2024-11-04 19:53:39

卷积相关的相关文章

SAR成像基础知识急救箱(一)卷积 相关 滤波器那些事儿

1 相关与卷积 1.1 相关 自相关定义: A(τ)=∫μ(t)μ(t+τ)dt 自相关的涵义是一个函数和平移后的自己的乘积的积分,注意自相关是平移量的函数.直观上理解:如果平移量为0,则对应上式的结果最大.对于如下式所示的信号: μ 1 (t)={10  for ∣ t∣≤T/2otherwise 对于T=1  ,对应的图形和自相关函数分别为: 可以这样理解:积分代表面积,所以函数平移之后与原来的自己再相乘再积分,即是看乘积函数与水平轴围成的面积.对于上式,可以想象的是,若平移量较大,大于1,

卷积在深度学习中的作用(转自http://timdettmers.com/2015/03/26/convolution-deep-learning/)

卷积可能是现在深入学习中最重要的概念.卷积网络和卷积网络将深度学习推向了几乎所有机器学习任务的最前沿.但是,卷积如此强大呢?它是如何工作的?在这篇博客文章中,我将解释卷积并将其与其他概念联系起来,以帮助您彻底理解卷积. 已经有一些关于深度学习卷积的博客文章,但我发现他们都对不必要的数学细节高度混淆,这些细节没有以任何有意义的方式进一步理解.这篇博客文章也会有很多数学细节,但我会从概念的角度来看待他们,在这里我用每个人都应该能够理解的图像表示底层数学.这篇博文的第一部分是针对任何想要了解深度学习中

一文带你了解卷积网络中的几何学

文章发布于公号[数智物语] (ID:decision_engine),关注公号不错过每一篇干货. 原标题 | An Easy Guide to Gauge Equivariant Convolutional Networks 作者 | Michael Kissner 译者 | AI小山(工程师).Mr-UC(中国科学院大学) 几何深度学习是个很令人兴奋的新领域,但是它的数学运算逐渐转移到代数拓朴和理论物理的范围. 在Cohen等人的论文<规范等变卷积网络和二十面体CNN>中,这种现象尤其明显.

卷积网络中的几何学你了解多少?

几何深度学习是个很令人兴奋的新领域,但是它的数学运算逐渐转移到代数拓朴和理论物理的范围. 在Cohen等人的论文<规范等变卷积网络和二十面体CNN>中,这种现象尤其明显.这篇论文也正是本文要探讨的对象.论文中使用了规范场理论的用辞,那些喜欢把“量子”和“场”两个词合起来使用的所有的物理学当中,规范场理论居于中心地位.论文承诺对规范场理论的基础知识提供一个直观的解读,其实,我也不得不承认,它做到了,而且它也许是目前我看到的最棒的入门介绍.然而,它终究是个很难的学科. 我在这里想做的,是纯直观的解

tensorflow框架学习 (九)—— CNN卷积神经网络的实现

一.卷积神经网络 1.关于卷积神经网络的知识,这里推荐一个博客,可以通过几篇博文来了解卷积神经网络:https://www.cnblogs.com/pinard/category/894694.html 2.关于张量经过卷积与池化后数据各维度大小的变化: 设原图片数据维度为$batch*width*height*channel$:$batch$为图片张数,$width$为图宽,$height$为图高,$channel$为图通道数. 卷积: 设卷积核为$padding*cwidth*cheight

约数相关

约数 约数简介 定义: 若整数 n 除以整数 d 的余数为 0,即 d 能整除 n, 则称 d 是 n,的约数,n 是 d 的倍数,记为 d|n 在算术基本定理中 \(N\)可被分解成下面这个样子 \[N=\prod_{i=1}^m p_i^ {c_i}, \ p_1<p_2<-<p_m , \ c_i ∈ N^*\] 那么\(N\)的正约数个数为: \[(c_i+1)*(c_i+2)*-(c_m+1)=\prod_{i=1}^{m}(c^i+1)\] \(N\)的所有正约数和为: \[

基于深度学习的目标检测

普通的深度学习监督算法主要是用来做分类,如图1(1)所示,分类的目标是要识别出图中所示是一只猫.而在ILSVRC(ImageNet Large Scale Visual Recognition Challenge)竞赛以及实际的应用中,还包括目标定位和目标检测等任务.其中目标定位是不仅仅要识别出来是什么物体(即分类),而且还要预测物体的位置,位置一般用边框(bounding box)标记,如图1(2)所示.而目标检测实质是多目标的定位,即要在图片中定位多个目标物体,包括分类和定位.比如对图1(3

第二十八节、基于深度学习的目标检测算法的综述

在前面几节中,我们已经介绍了什么是目标检测,以及如何进行目标检测,还提及了滑动窗口,bounding box.以及IOU,非极大值抑制等概念. 这里将会综述一下当前目标检测的研究成果,并对几个经典的目标检测算法进行概述,本文内容来自基于深度学习的目标检测,在后面几节里,会具体讲解每一种方法. 在深度度学习的目标检测算法兴起之前,传统的目标检测算法是怎样的呢? 传统的目标检测一般使用滑动窗口的框架,主要包括三个步骤: 利用不同尺寸的滑动窗口框住图中的某一部分作为候选区域: 提取候选区域相关的视觉特

深度学习图像分割——U-net网络

写在前面: 一直没有整理的习惯,导致很多东西会有所遗忘,遗漏.借着这个机会,养成一个习惯. 对现有东西做一个整理.记录,对新事物去探索.分享. 因此博客主要内容为我做过的,所学的整理记录以及新的算法.网络框架的学习.基本上是深度学习.机器学习方面的东西. 第一篇首先是深度学习图像分割--U-net网络方面的内容.后续将会尽可能系统的学习深度学习并且记录. 更新频率为每周大于等于一篇. 深度学习的图像分割来源于分类,分割即为对像素所属区域的一个分类. 有别于机器学习中使用聚类进行的图像分割,深度学