这个算法主要是解决了每一层中的正则化问题
其实我觉得这东西很鸡肋,因为我输入已经归一化了
然后初始的w,b也很小
每一层的输出肯定也很小
使用Batch Norm反而会加大训练时间,弱化神经网络中参数的作用
z(i)是这一层神经网络中第i个神经元,经过激活函数的输出
为了是下一层的输入比较相近,我们就需要使用Batch Norm
原文地址:https://www.cnblogs.com/shensobaolibin/p/8955701.html
时间: 2024-08-30 03:05:50