alex68

alex68

一般不扯淡~

威望 : 278 积分 : 788 赞同 : 32 感谢 : 11

擅长话题

更多 »回复

0

是用python吗?有可能是python默认精度的问题?

0

  data aug自己做就可以啊 不一定飞得用caffe 比如这个 http://augmentor.readthedocs.io/en/master/index.html

0

在计算loss的时候是需要将一个batch内的所有样本加到一起平均的,同样,梯度的计算也是根据这一批样本来计算的,这也正是mini-batch的作用。

2

会增加计算时间,但是在达到同样的精度条件下,总的train时间会减少。 在predicate时候几乎可以忽略不计。

0

  是group参数吗? 没遇到过爆内存的情况 怀疑你的proto是不是写错了 有些group没有top? 

更多 »发问

1

2136 次浏览  • 3 个关注   • 2016-06-25

0

1384 次浏览  • 1 个关注   • 2016-03-08

4

4616 次浏览  • 14 个关注   • 2015-12-28

2

2243 次浏览  • 7 个关注   • 2015-12-03

发问

回复

文章

最新动态

详细资料

本站成就:

威望: 40 赞同: 32 感谢: 11

最后活跃:
2017-12-05 09:42
擅长话题:
框架使用 3   0
目标检测 1   0
人脸检测 1   0
Caffe 1   0
更多 » 关注 2

phoenixbai xinmiao

更多 » 5 人关注

240084173jj XavierLin Banggui02 iRSer 401晴空

主页访问量 : 1944 次访问