出现过拟合的根本原因是什么?

今天朋友面试被问到,深度学习训练时出现过拟合的根本原因是什么?朋友回答是参数太多,数据数据少。但面试官说这不是最根本原因。哪位朋友能解释一下呢?
已邀请:

菜鸟实验室 - 深度学习菜鸟

赞同来自: caffe chenallex 雨叶清霜 bhj52099 coolwyj OpenAI NJUSTghw jzyztzn 佛仙魔 leemak更多 »

我的两方面理解:
1 观察值与真实值存在偏差: 
 训练样本的获取,本身就是一种 抽样。抽样操作就会存在误差, 也就是你的训练样本 取值 X,
        X = x(真值) + u(随机误差),
机器学习的 优化函数 多为 min Cost函数,自然就是尽可能的拟合 X,而不是真实的x,所以 就称为过拟合了,实际上是学习到了真实规律以外的 随机误差。
 举个例子说,你想做人脸识别,人脸里有背景吧,要是你这批人脸背景A都相似,学出来的模型,见到背景A,就会认为是人脸。这个背景A就是你样本引入的误差。
 
2 数据太少,导致无法描述问题的真实分布
 @greatmanqss 已经表述了
 举个例子,投硬币问题 是一个 二项分布,但是如果 你碰巧投了10次,都是正面。那么你根据这个数据学习,是无法揭示这个规律的,根据统计学的大数定律(通俗地说,这个定理就是,在试验不变的条件下,重复试验多次,随机事件的频率近似于它的概率),当样本多了,这个真实规律是必然出现的。
 
为什么说 数据量大了以后 就能防止过拟合,数据量大了,
    问题2,不再存在,
    问题1,在求解的时候因为数据量大了, 求解min Cost函数时候, 模型为了求解到最小值过程中,需要兼顾真实数据拟合 和 随机误差拟合,所有样本的真实分布是相同的(都是人脸),而随机误差会一定程度上抵消(背景),
  如果觉得有道理,请左下角“点赞”哈!
参数太多,模型就会变得复杂,拟合数据分布的能力就强,如果训练数据少,那么其刻画的分布就有限,复杂模型就会过度的去拟合训练集所刻画的分布,但是真实数据的分布比训练集刻画的分布要复杂,这样模型在更多数据上的拟合能力就会不尽如人意了

要回复问题请先登录注册