CatherineW

CatherineW

威望 : 0 积分 : 375 赞同 : 0 感谢 : 0

更多 »回复

0

嗯 楼上@joshua_1988说的对 制作leveldb的时候要shuffle;如果用imagedata层,可以自己打乱图片list的列表文件,也可以加上shuffle参数

0

归一化是非常常用的数据预处理操作。数据中常存在奇异样本数据,奇异样本数据存在所引起的网络训练时间增加,并可能引起网络无法收敛。为了避免出现这种情况及后面数据处理的方便,加快网络学习速度,可以对输入进行归一化,使得所有样本的输入信号其均值接近于0或与其均方差相比...

0

@piaobuliao 说的没错啊 明显过拟合 120个样本5个G,每个图片40M? 你开玩笑吗

0

题主推荐的http://blog.csdn.net/u010402786/article/details/72883421这个办法解决了问题,谢谢!

0

这个问题好像已经有人问过了啊,你看一下这个问题的答案   [b]问题:caffe里面的误差的反向传播怎么实现来的?[/b] http://caffecn.cn/?/question/36

更多 »发问

1

619 次浏览  • 3 个关注   • 2016-02-24

2

642 次浏览  • 3 个关注   • 2015-12-08

4

3382 次浏览  • 12 个关注   • 2015-12-02

发问

回复

文章

最新动态

详细资料

本站成就:

威望: 0 赞同: 0 感谢: 1

最后活跃:
3 天前
更多 » 关注 1

caffe

更多 » 0 人关注
主页访问量 : 528 次访问