fcn训练自己的数据集loss值爆炸

yulian99 回复了问题 • 2 人关注 • 2 个回复 • 84 次浏览 • 5 天前 • 来自相关话题

caffe模型在特征提取时,为什么forward()之后,从(batch_size,3,224,224)(batch_size为图片数量)变成了(1,3,224,224)

回复

ClareQi 发起了问题 • 1 人关注 • 0 个回复 • 89 次浏览 • 2017-08-15 11:25 • 来自相关话题

fineturn inceptionv4 加载现成的caffe model 出现以下问题

joshua_1988 回复了问题 • 2 人关注 • 1 个回复 • 92 次浏览 • 2017-08-09 18:20 • 来自相关话题

BN层全局均值和方差对训练精度和测试精度的影响

回复

phipps 发起了问题 • 1 人关注 • 0 个回复 • 76 次浏览 • 2017-08-08 21:57 • 来自相关话题

使用batch-normalization层使回传梯度消失

pyramide 回复了问题 • 2 人关注 • 2 个回复 • 120 次浏览 • 2017-08-07 19:32 • 来自相关话题

vgg_face的调优工作

数学爱好者26 回复了问题 • 9 人关注 • 6 个回复 • 1240 次浏览 • 2017-08-03 10:19 • 来自相关话题

caffe loss不收敛

墨子浅心 回复了问题 • 6 人关注 • 5 个回复 • 1010 次浏览 • 2017-07-31 16:07 • 来自相关话题

难道不是参数越少,模型越小,测试时占用的显存资源会更少么?

joshua_1988 回复了问题 • 3 人关注 • 1 个回复 • 157 次浏览 • 2017-07-26 09:14 • 来自相关话题

Caffe中如何显示回传的梯度

Evence 回复了问题 • 2 人关注 • 1 个回复 • 156 次浏览 • 2017-07-18 18:21 • 来自相关话题

AlexNet做分类,loss值低至0.0几了,准确率是95%左右,还有什么方法能提高准确率?

回复

liuyi000 发起了问题 • 1 人关注 • 0 个回复 • 170 次浏览 • 2017-07-12 14:58 • 来自相关话题

loss不收敛,一直是8到9之间徘徊

asdfee 回复了问题 • 6 人关注 • 4 个回复 • 3436 次浏览 • 2017-07-10 21:59 • 来自相关话题

请问在进行分类任务的过程中有哪些可以拉开类间差距的办法?

回复

匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 110 次浏览 • 2017-07-07 17:49 • 来自相关话题

用vgg跑imagenet做预训练模型,泥萌的batch都是设置多少得呢

c408550969 回复了问题 • 4 人关注 • 3 个回复 • 1731 次浏览 • 2017-07-03 21:08 • 来自相关话题

类不平衡问题,能否通过调整最后的阈值来解决

alex68 回复了问题 • 1 人关注 • 1 个回复 • 178 次浏览 • 2017-06-29 20:20 • 来自相关话题

我对googlenet在imagenet数据集的训练结果上进行finetune,但是最后测试结果中输出的概率不是1就是0,请问这是什么问题:)

hunterlew 回复了问题 • 2 人关注 • 1 个回复 • 410 次浏览 • 2017-06-28 21:33 • 来自相关话题

两个关于extract_features的问题

回复

Ma_Jane 发起了问题 • 1 人关注 • 0 个回复 • 138 次浏览 • 2017-06-26 19:00 • 来自相关话题

caffe solver中的test_iter设置过大或者过小会带来什么样的结果?

andrewsu90116 回复了问题 • 3 人关注 • 1 个回复 • 206 次浏览 • 2017-06-23 16:23 • 来自相关话题

样本的数量增多导致训练迭代到2.5万左右后立刻衰减为0

alex68 回复了问题 • 1 人关注 • 1 个回复 • 179 次浏览 • 2017-06-07 13:46 • 来自相关话题

py-faster-rcnn如何恢复训练,没找到solverstate

回复

深度学习思考者 发起了问题 • 2 人关注 • 0 个回复 • 290 次浏览 • 2017-06-01 15:07 • 来自相关话题

二分类问题用什么模型?

popper0912 回复了问题 • 5 人关注 • 2 个回复 • 973 次浏览 • 2017-05-31 10:05 • 来自相关话题