为什么在训练的时候没有out of memory而在测试时out of memory了?

我打算fine-tune一下SSD,然后数据什么的都制作好了,就开始了。
首先,我的显卡非常渣,就2GB的显存,所以对VGG16的网络基本没有报太大希望,但是把batch_size改成了3之后,发现可以训练了。但是很奇怪的是,一到训练的时候,就out of memory了。我看了我的test_batch_size是1,而且在test.prototxt文件里也是1,为什么训练的时候,显卡都可以,但是测试的时候就不行了呢?
请问一下,我该怎么做才可以。显卡是暂时换不了。。。

上传.jpg

 
已邀请:

卜居2016 - 《深度学习:21天实战Caffe》作者,就职于阿里云计算有限公司。

赞同来自: grubby lismqi

Train Net 和 Test Net 是两个独立网络,都会占用一定显存。你可以做个试验,直接使用 caffe test 命令,这个只创建一个 Test Net。
如果一定要训练,建议用小点的模型,或者换显存大点的 GPU 吧。

grubby - student of NEU

赞同来自:

求解答啊,学习率从0.01改到了0.0001都没用啊。

要回复问题请先登录注册