blobs_lr和lr_mult分别是什么?有什么用?谁的用处大些?

已邀请:
lr_mult是针对每个层而言,层的learning rate可以单独调节,lr_mult就是该层的learning rate是base_lr的多少倍。即该层的学习率=lr_mult*base_lr(好像是乘的关系)
blobs_lr和lr_mult应该是一个东西,不过caffe版本升级,定义形式换了而已,blobs_lr已经弃用了

要回复问题请先登录注册