深度学习GPU显存不够,是否可以多路GPU进行串行运算?

我使用caffe搭建基于ResNet-101改进的拓展深度学习网络,GPU为4张微星1080Ti(11GB)显卡,运行时发现显存不够(out of memory,大约需要13G),请问各位大神,caffe等框架能否设置GPU串行方案?让2张显卡串行运行,这样就有22G显存,完全可以支持大型的网络运行?
已邀请:

alex68 - 一般不扯淡~

赞同来自:

可以 以前见过美国印第安纳大学发布的一个基于Caffe的框架 可以设置指定某些层用哪块GPU计算 忘了叫什么名字了 你可以搜一搜

要回复问题请先登录注册