关于卷积层数的认定

大家好,我想问个小白问题。

一般我们说的层数,比如vgg16,LeNet5,这里面的16和5,到底是怎么算出来的呢?
我数了一下,relu层肯定是不计算的,但pooling层算吗?loss层算吗?
这里面有个标准吗?或者多数人是如何认定的呢?

目前vgg好像是 conv层 + fully convolution层,
比如vgg16 = 13conv + 3fully conv, vgg19 = 16conv + 3fully conv
LeNet也是如此,LeNet5 = 3 conv + 2 fully conv
但也有种说法是LeNet5 = 2 conv + 2 fully conv + 1 loss

我又仔细看了下,这似乎是因为LeNet既有2个conv层的版本,又有3个conv层的版本,估计和任务有关,
和输入patch的大小有关。在Cifar任务中,输入是32*32的patch,这时的leNet就有3个conv层,
而在mnist的任务中,输入是28*28的patch,结果是2个conv层。那么问题就是,一般我们说的LeNet5,
是指不包括loss层的版本吗?

希望能得到高手指点
已邀请:

alex68 - 一般不扯淡~

赞同来自: pyramide

这只是一些约定而已 关键你要知道哪些层是有参数的 比如卷积层、全连接层 是有参数的 而pooling层和rely层是没有参数的 所以通常我们把有参数的层计入到层数中 而pooling和relu作为构建块 loss层通常不计入到深度中
以上。

要回复问题请先登录注册