convolution层kernel_size:1怎么解释

已邀请:
这两天特意看了一下,kernel_size:1,主要有两个作用,1:降维;2.增加网络的非线性,提高识别的准确率

今天可以2

赞同来自: 佛仙魔

full connect layer -> convolution layer
Converting FC layers to CONV layers

naisubing

赞同来自: xuesen

对于图像数据,我理解kernel_szie:1,就好像对原始图像做了一次亮度变换,整张图每个像素都乘了一个相同的值(权值共享),这样100个核就相当于把原来的图像转化成了100个不同亮度的图片,相当于丰富了数据量,提高了泛华能力。这是我个人的理解,不知道对不对

佛仙魔 - 吃饭睡觉小能手 ^_^Y

赞同来自:

size为1的原因可参考GoogLeNet的论文,Going deeper with convolutions

鱼儿coco

赞同来自:

感觉是不是相当于使用卷积核卷积后得到只有一个神经元

naisubing

赞同来自:

第一个大神说的对,是有降维的效果,因为1x1的卷积层output_num比输入层的output_num数量明显少了很多,所以起到了降维的效果!

要回复问题请先登录注册