训练深度学习网络,对数据量有何要求呢?是不是小数据量的问题,不适合用深度学习来处理呢

是不是深度学习网络模型的训练都要求大数据量呢? 没有大数量的问题,比如二维医学图像里面的病变区域样本本来就少,对于这样的小数据量问题的,是否适合采用深度网络模型去分类或者识别病变呢,小数据量如何设置深度网络的层数呢?期待回复!辛苦了!
已邀请:

刘昕_ICT

赞同来自: 李扬

小数据直接从随机初始化学习并不可靠,实践中非常容易over-fitting。一般建议是从一个general的模型finetune到特定的领域模型(利用领域特定的小数据),可以参考另外一个问题“fine_tuning原理问题“
http://caffecn.cn/?/question/12
 

白水煮蝎子

赞同来自: alex68

不邀自来...
 
目前解决数据量小的问题有两种,(1)迁移学习(2)主动学习
 
本人在研究主动学习,可以在保证准确率的前提下降低数据使用量。楼主可参见如下论文:
Liu, Peng, Hui Zhang, and Kie B. Eom. "Active deep learning for classification of hyperspectral images." IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing 10.2 (2017): 712-724.
感觉跟你说的问题相似
 
另,还未研究迁移学习,不敢乱答。
 
以上。

leijiang420 - 图像算法工程师

赞同来自:

个人觉得数据量过小的话,训练肯定是不太现实了。很容易就过拟合了,如果有个几千张数据并且任务不难的话,在已有的模型上微调应该就能取得比较好的结果(就像楼上说的)。深度学习玩的是深度耗的是数据。

要回复问题请先登录注册