accuracy和实际使用测试集的正确率来算为什么会出现不同呢

如题所示,我的网络模型和样例中用于mnist的lenet的网络模型几乎一个模子改出来的,可是训练过程最终在终端显示的accuracy和利用其caffemodel在matlab、Python中显示的结果都不一样(使用的数据还是训练中用的TEST的数据),是因为softmaxwithloss层的问题?
已邀请:

weiweifufu - 大四毕业学生

赞同来自:

在终端中显示的accuracy大概是92%,在matlab中显示的就是79%,换做其他的参考模型(比如Alexnet),相差也不过1%左右

xinmiao

赞同来自:

这个问题确实很多人报告过,由于我自己没专门测试过,所以不敢说是不是bug,希望朋友们指导。
目前比较确定的是,如果你的模型是再C++API下训练的,那么在同样的环境下测试是没问题的。但由于数值精度的问题,用其他语言接口会有一定的误差。

南七骄傲 - 90后IT男

赞同来自:

在训练过程中的accuracy的输入是每个batch里面的样本,而不是测试集。

wpfei

赞同来自:

我也遇到这样的问题

要回复问题请先登录注册