用vgg跑imagenet做预训练模型,泥萌的batch都是设置多少得呢

为了充分贯彻“预训练+微调”的鲁棒训练思路,我也入了大坑。。。

那么修改完前段网络之后用imagenet数据集训练,在我可爱的GTX980上跑,从开始的训练batch_size: 256,验证batch_size: 50一直减少到双1,还是报了“Check failed: error == cudaSuccess (2 vs. 0)  out of memory”的错,这真的是我显存不够的问题么,觉得好迷呀,你们在训练imagenet的时候batch_size都是设置成多少的呢?

batch1_3.jpg


========================================================================
问题算是绝解决了吧:
batchsize从256-128-64-32都不行,我就差尝试16和8了,结果在titan上训练bantchsize为8跑起来了,显存占了11/12GB。所以科研还是需要坚持的。。。但是保存状态出了问题,暂时归为硬盘空间不足,不知道是不是这样。。。

========================================================================
已邀请:

chibai

赞同来自:

你重启就好了,尝试保持golobal batch size不变,你可以减少train_val.protxt的batch size,但可以增加solver.protxt的batch size interval

hunterlew

赞同来自:

楼主,你的训练集下下来后有缺失吗?是刚好1281167张吗?

c408550969

赞同来自:

楼主,请问你的imagenet在哪下的? 为什么我在官网上只看到download original images,标签文件在哪下载呢?

要回复问题请先登录注册