网络训练显存占用问题,如何避免

最近在做图像识别的相关工作,网络训练用的显卡是1080p,在用reference_caffenet训练时batch_sizes=128可以正常工作,但是换做VGG16时就out of memory了
请问 有人知道网络训练时候,显存到底是哪几个方面 暂用情况?求详解
已邀请:

lwplw - EADG

赞同来自:

两次训练用的数据集一样吗?

teemo - 一个dl的小菜鸟

赞同来自:

vgg16占的memory多很正常啊,两个网络的参数量不在一个数量级上

wangzhangup - DeepLearning

赞同来自:

主要是feature map和weights占用显存,请把batchsize调小

alex68 - 一般不扯淡~

赞同来自:

把batch调小 然后每n个batch之后更新一次参数

要回复问题请先登录注册