关于caffe Scale层的BP问题

网络中的每一层的学习率都置为0了(除FC层外),当训练时反向传播仍要传回至scale_conv1层,这明显降低了学习的效率。说明一下当不使用Scale_layer时,就不会发生类似的问题。求解?
已邀请:

Machine

赞同来自:

自问自答:将其学习率置为零(之前认为Scale_layer没有学习的参数。。。)
layer {
    bottom: "conv1"
    top: "conv1"
    name: "scale_conv1"
    type: "Scale"
    param {
      lr_mult: 0
      decay_mult: 0
    }
    param {
      lr_mult: 0
      decay_mult: 0
    }
    scale_param {
        bias_term: true
    }
}

要回复问题请先登录注册