训练Fitnet时训练数据预处理对Loss的收敛性影响?

回复

参数调节月光里的阳光ysu 发起了问题 • 1 人关注 • 0 个回复 • 82 次浏览 • 2018-02-06 09:38 • 来自相关话题

有没有试过caffe多标签反序列化的?

回复

tracycw 发起了问题 • 1 人关注 • 0 个回复 • 82 次浏览 • 2018-02-05 17:32 • 来自相关话题

改进mnist siamese网络,使用concat和全连接+software替换掉 对比loss function 。编写caffe 的网络,出现的问题

回复

参数调节liyan 回复了问题 • 1 人关注 • 1 个回复 • 136 次浏览 • 2018-01-25 20:55 • 来自相关话题

loss一开始就很小,约为0.7-0.8,训练了几万,也没有收敛的迹象

miya_xu 回复了问题 • 2 人关注 • 1 个回复 • 471 次浏览 • 2018-01-23 11:30 • 来自相关话题

已经用AlexNet训练出了一个模型,如何将其改为FCN,具体需要怎么操作

回复

xiaomaoge 发起了问题 • 1 人关注 • 0 个回复 • 133 次浏览 • 2018-01-22 17:28 • 来自相关话题

请问SSD算法在一个工程下运行两个模型怎么做啊 望指点

回复

linyigreat 回复了问题 • 1 人关注 • 1 个回复 • 179 次浏览 • 2018-01-17 11:07 • 来自相关话题

AlexNet做分类,loss值低至0.0几了,准确率是95%左右,还有什么方法能提高准确率?

参数调节joshua_1988 回复了问题 • 4 人关注 • 3 个回复 • 852 次浏览 • 2018-01-12 09:20 • 来自相关话题

caffe BN层固定参数训练

回复

tracycw 发起了问题 • 1 人关注 • 0 个回复 • 193 次浏览 • 2018-01-05 10:20 • 来自相关话题

caffe contrastive loss层的使用

回复

匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 186 次浏览 • 2017-12-20 20:06 • 来自相关话题

Caffe中如何显示回传的梯度

参数调节Evence 回复了问题 • 3 人关注 • 1 个回复 • 557 次浏览 • 2017-12-19 17:44 • 来自相关话题

请问如何画loss与lr(可变)的图?

回复

匿名用户 回复了问题 • 1 人关注 • 1 个回复 • 182 次浏览 • 2017-12-14 09:27 • 来自相关话题

训练开始,迭代数为0,就一直反复出现Restarting data prefetching from start

回复

匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 199 次浏览 • 2017-12-13 21:56 • 来自相关话题

如何自动更新学习率,选择什么样的学习策略?

参数调节HUSThu 回复了问题 • 2 人关注 • 1 个回复 • 216 次浏览 • 2017-12-07 15:42 • 来自相关话题

通过微调可以减少模型大小吗

参数调节HUSThu 回复了问题 • 2 人关注 • 2 个回复 • 227 次浏览 • 2017-12-07 15:38 • 来自相关话题

faster rcnn添加一块网络结构,训练完后原本的不变的那一部分模型进行画框测试时结果准确率改变

参数调节w51001y 回复了问题 • 2 人关注 • 1 个回复 • 331 次浏览 • 2017-12-04 20:33 • 来自相关话题

resnet 网络从头训练

回复

参数调节匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 250 次浏览 • 2017-11-23 14:35 • 来自相关话题

loss与模型选择

回复

参数调节LearnByPratice 回复了问题 • 1 人关注 • 1 个回复 • 192 次浏览 • 2017-11-20 11:42 • 来自相关话题

从图上看?

回复

孙泽宇 发起了问题 • 1 人关注 • 0 个回复 • 215 次浏览 • 2017-11-16 17:00 • 来自相关话题

bbox=nan,你解决没有,能不能说一下你的解决方法?

回复

桌子ly 发起了问题 • 1 人关注 • 0 个回复 • 155 次浏览 • 2017-11-15 23:15 • 来自相关话题

使用reshape层报错

joshua_1988 回复了问题 • 2 人关注 • 1 个回复 • 211 次浏览 • 2017-11-12 14:03 • 来自相关话题