caffe里面,原来以为是不可以随便调整学习率的,现在看来是可以的。base_lr是适用于所有层的学习率,而针对单个层,可以通过增加两个blobs_lr,用来调整该层的学习率,为什么是两个呢,因为一个调整weight的学习率,一个是调整偏执b的学习率。那么该层的学习率就变成了,base_lr*blobs_lr,base_lr*blobs_lr了。太赞了,caffe的功能真的很强大,加强学习。
时间: 2024-11-26 06:35:55
caffe里面,原来以为是不可以随便调整学习率的,现在看来是可以的。base_lr是适用于所有层的学习率,而针对单个层,可以通过增加两个blobs_lr,用来调整该层的学习率,为什么是两个呢,因为一个调整weight的学习率,一个是调整偏执b的学习率。那么该层的学习率就变成了,base_lr*blobs_lr,base_lr*blobs_lr了。太赞了,caffe的功能真的很强大,加强学习。