你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
输入关键字进行搜索
搜索:
发现
话题
· · ·
登录
注册
框架使用
参数调节
关于caffe Scale层的BP问题
网络中的每一层的学习率都置为0了(除FC层外),当训练时反向传播仍要传回至scale_conv1层,这明显降低了学习的效率。说明一下当不使用Scale_layer时,就不会发生类似的问题。求解?
没有找到相关结果
已邀请:
与内容相关的链接
提交
1 个回复
Machine
赞同来自:
自问自答:将其学习率置为零(之前认为Scale_layer没有学习的参数。。。)
layer {
bottom: "conv1"
top: "conv1"
name: "scale_conv1"
type: "Scale"
param {
lr_mult: 0
decay_mult: 0
}
param {
lr_mult: 0
decay_mult: 0
}
scale_param {
bias_term: true
}
}
要回复问题请先
登录
或
注册
发起人
Machine
相关问题
caffe的总体流程是怎样的?
fine_tuning原理问题
caffe里面的误差的反向传播怎么实现来的?
谁能提供一下caffe在做train()时候的详细流程图,代码看的晕乎乎的
怎样用自己的数据集对caffe训练好的model进行fineture?
在caffe中卷积核是三维的还是二维的?
Faster R-CNN ,Rcnn ,fast rcnn与caffe有什么关系呀?它主要是用来检测图像中的多个物体的吗?能否进行人脸比对?
在Caffe中做人脸识别中是直接在人脸数据上训练好还是Fine-turning比较好?
Caffe 是否支持多GPU并行训练?
caffe里sigmoidCrossEntropyLoss层计算
faster rcnn的特征图到原图区域映射问题?
问题状态
最新活动:
2016-09-12 20:16
浏览:
6543
关注:
1
人
1 个回复
Machine
赞同来自:
layer {
bottom: "conv1"
top: "conv1"
name: "scale_conv1"
type: "Scale"
param {
lr_mult: 0
decay_mult: 0
}
param {
lr_mult: 0
decay_mult: 0
}
scale_param {
bias_term: true
}
}