假设一个卷积层的输入的特征图(feature maps)数量(input channels)为“n”,输出为特征图数量为“m”,卷积核(kernel size)为“k”。假设我们处理的是一个2D的卷积操作,卷积层对应的输入的参数量为k * k * n,与此同时,由于输出为m通道的特征图数量,为了映射到输出卷积层需要学习(k * k * n)* m个参数,但是这里不能忽略掉偏差项(由z = wx + b得知),由于一般卷积操作是矩阵运算,因此b是具有broadcasting的特性的,那么最终需要计算的当前卷积层的参数两为(k * k * n + b)* m。
原文地址:https://www.cnblogs.com/jielongAI/p/11509507.html
时间: 2024-10-03 19:57:11