caffe 的 python 接口可以使用 多 GPU 并行吗?

回复

大规模优化nesciemus 发起了问题 • 1 人关注 • 0 个回复 • 162 次浏览 • 2016-11-15 19:16 • 来自相关话题

深层学习为什么要deep(上 and 下)

YJango 发表了文章 • 0 个评论 • 348 次浏览 • 2016-11-14 03:47 • 来自相关话题

深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

深层学习为何要“Deep”(上)
深层学习为何要"Deep"(下)(举例) 查看全部
深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

深层学习为何要“Deep”(上)
深层学习为何要"Deep"(下)(举例)

求问convert_imageset.cpp是不是只能用于转换jpg格式的数据?可以转换raw格式的数据吗?

zyore2013 回复了问题 • 2 人关注 • 1 个回复 • 165 次浏览 • 2016-11-11 13:36 • 来自相关话题

softmaxloss一直在 -ln(1.0 / num_class),验证是数据做了scale导致,这是什么原因?

回复

参数调节anan1205 发起了问题 • 1 人关注 • 0 个回复 • 150 次浏览 • 2016-11-11 11:21 • 来自相关话题

学习率更新方法

参数调节emerald 回复了问题 • 2 人关注 • 1 个回复 • 264 次浏览 • 2016-11-10 16:27 • 来自相关话题

Caffe的卷积到底是如何计算的呢?

uestc_yang 回复了问题 • 5 人关注 • 4 个回复 • 364 次浏览 • 2016-11-09 10:47 • 来自相关话题

配置python接口编译报错

卜居2016 回复了问题 • 2 人关注 • 1 个回复 • 179 次浏览 • 2016-11-03 13:40 • 来自相关话题

SSD的网络修改问题

回复

宋姚姚 发起了问题 • 2 人关注 • 0 个回复 • 235 次浏览 • 2016-10-31 15:17 • 来自相关话题

关于Weighted Approximate Ranking Pairwise loss(WARP)

回复

Banggui02 发起了问题 • 1 人关注 • 0 个回复 • 257 次浏览 • 2016-10-28 16:30 • 来自相关话题

deconv层中的kernel size和stride的疑问

回复

佛仙魔 发起了问题 • 3 人关注 • 0 个回复 • 239 次浏览 • 2016-10-21 11:08 • 来自相关话题

在caffe中卷积核是三维的还是二维的?

bonerkiller 回复了问题 • 15 人关注 • 7 个回复 • 2761 次浏览 • 2016-10-21 09:20 • 来自相关话题

在用fcn32s做图像分割的时候,loss总是-ln(1/num_output)不变,是哪一步出了问题?

参数调节tron1992 回复了问题 • 3 人关注 • 2 个回复 • 313 次浏览 • 2016-10-19 11:20 • 来自相关话题

如何理解“max-pooling is only performed for the two largest patches”,该怎么设定池化层核的尺寸??

回复

Phoenixhrx 回复了问题 • 1 人关注 • 1 个回复 • 248 次浏览 • 2016-10-18 22:07 • 来自相关话题

faster rcnn的特征图到原图区域映射问题?

南七骄傲 回复了问题 • 14 人关注 • 6 个回复 • 3871 次浏览 • 2016-10-13 12:23 • 来自相关话题

在CNN网络中roi从原图映射到feature map中的计算方法

南七骄傲 发表了文章 • 0 个评论 • 500 次浏览 • 2016-10-13 11:13 • 来自相关话题

在使用fast rcnn以及faster rcnn做检测任务的时候,涉及到从图像的roi区域到feature map中roi的映射,然后再进行roi_pooling之类的操作。
比如图像的大小是(600,800),在经过一系列的卷积以及pooling操作之后在某一个层中得到的feature map大小是(38,50),那么在原图中roi是(30,40,200,400),
在feature map中对应的roi区域应该是
roi_start_w = round(30 * spatial_scale);
roi_start_h = round(40 * spatial_scale);
roi_end_w = round(200 * spatial_scale);
roi_end_h = round(400 * spatial_scale);
其中spatial_scale的计算方式是spatial_scale=round(38/600)=round(50/800)=0.0625,所以在feature map中的roi区域[roi_start_w,roi_start_h,roi_end_w,roi_end_h]=[2,3,13,25];
具体的代码可以参见caffe中roi_pooling_layer.cpp 查看全部
在使用fast rcnn以及faster rcnn做检测任务的时候,涉及到从图像的roi区域到feature map中roi的映射,然后再进行roi_pooling之类的操作。
比如图像的大小是(600,800),在经过一系列的卷积以及pooling操作之后在某一个层中得到的feature map大小是(38,50),那么在原图中roi是(30,40,200,400),
在feature map中对应的roi区域应该是
roi_start_w = round(30 * spatial_scale);
roi_start_h = round(40 * spatial_scale);
roi_end_w = round(200 * spatial_scale);
roi_end_h = round(400 * spatial_scale);
其中spatial_scale的计算方式是spatial_scale=round(38/600)=round(50/800)=0.0625,所以在feature map中的roi区域[roi_start_w,roi_start_h,roi_end_w,roi_end_h]=[2,3,13,25];
具体的代码可以参见caffe中roi_pooling_layer.cpp

caffe的normalize层和batchNorm层什么区别?

bonerkiller 回复了问题 • 3 人关注 • 1 个回复 • 305 次浏览 • 2016-10-11 17:38 • 来自相关话题

Tiling layer的转换问题

回复

参数调节qibai 发起了问题 • 1 人关注 • 0 个回复 • 272 次浏览 • 2016-10-09 20:41 • 来自相关话题

关于fast/faster rcnn bbox 中的target normalization的疑问

回复

参数调节Mounty 发起了问题 • 2 人关注 • 0 个回复 • 344 次浏览 • 2016-10-05 09:49 • 来自相关话题

FNN,CNN,RNN的区别

回复

YJango 发起了问题 • 2 人关注 • 0 个回复 • 383 次浏览 • 2016-10-04 08:48 • 来自相关话题

Simplified introduction to deep neural networks

YJango 发表了文章 • 1 个评论 • 264 次浏览 • 2016-10-01 03:08 • 来自相关话题

Simplified introduction to deep neural networks

这是我硕士毕业论文的第二章,是简单介绍深层神经网络的。
容易理解也易于扩展,希望帮助新人找到最初的感觉。不过遗憾的是只有英文的。可能还有排版错误。

简单理解神经网络应该分为两部分
网络结构:神经网络是怎么计算预测的,以及神经网络为什么好用。网络训练:神经网络是怎么训练的,以及如何克服在训练时所遇到的如过拟合,梯度消失等问题。
目前关于神经网络的主流研究也是分为网络结构和网络训练两大类(姑且不谈应用)

进一步理解围绕“深层”二字来神经网络的的话应该在网络结构中细分出另一类:
网络结构:
特征结构:之所以要深层是因为一部分的层在完成“学习如何提取特征”的任务。比如画面处理的convolutional layers ,时间序列处理的Recurrent layers。甚至feedforward layers也能完成此任务。分类/递归结构:如果仅需完成分类器的任务的话,一个hidden feedforward足以。其他的机器学习算法如SVM,GP甚至做的要比神经网络要好。
不过很遗憾的是,我的硕士论文中并未细分此点。
举例说明:比如图片识别。一个图片究竟是什么不仅取决于图片本身,还取决于识别者“如何观察”。




如果这是一个训练样本。
当你给的标签是少女的时候,convolutional layers会以此学习“如何观察”成少女当你给的标签是老妇的时候,convolutional layers会以此学习“如何观察”成老妇之所以深层,是因为一定数量的层数在学习“如何观察”。再学习完如何观察后再传递给“分类层”中去。而分类层并不需要“深”。网络结构中最重要的是特征结构层。
先抓住主干,再学习细节,以这种理解为基础,可以很容易确定该如何设计神经网络,以及网络表现不好时该如何调整。

  查看全部
Simplified introduction to deep neural networks

这是我硕士毕业论文的第二章,是简单介绍深层神经网络的。
容易理解也易于扩展,希望帮助新人找到最初的感觉。不过遗憾的是只有英文的。可能还有排版错误。

简单理解神经网络应该分为两部分
  • 网络结构:神经网络是怎么计算预测的,以及神经网络为什么好用。
  • 网络训练:神经网络是怎么训练的,以及如何克服在训练时所遇到的如过拟合,梯度消失等问题。

目前关于神经网络的主流研究也是分为网络结构和网络训练两大类(姑且不谈应用)

进一步理解围绕“深层”二字来神经网络的的话应该在网络结构中细分出另一类:
网络结构:
  • 特征结构:之所以要深层是因为一部分的层在完成“学习如何提取特征”的任务。比如画面处理的convolutional layers ,时间序列处理的Recurrent layers。甚至feedforward layers也能完成此任务。
  • 分类/递归结构:如果仅需完成分类器的任务的话,一个hidden feedforward足以。其他的机器学习算法如SVM,GP甚至做的要比神经网络要好。

不过很遗憾的是,我的硕士论文中并未细分此点。
举例说明:比如图片识别。一个图片究竟是什么不仅取决于图片本身,还取决于识别者“如何观察”。
3-141011215254923.jpg

如果这是一个训练样本。
  • 当你给的标签是少女的时候,convolutional layers会以此学习“如何观察”成少女
  • 当你给的标签是老妇的时候,convolutional layers会以此学习“如何观察”成老妇
  • 之所以深层,是因为一定数量的层数在学习“如何观察”。再学习完如何观察后再传递给“分类层”中去。而分类层并不需要“深”。
  • 网络结构中最重要的是特征结构层。

先抓住主干,再学习细节,以这种理解为基础,可以很容易确定该如何设计神经网络,以及网络表现不好时该如何调整。