CNN模型训练结果不错,但并未很好的表现在分类上?

参数调节JuliusC 回复了问题 • 3 人关注 • 1 个回复 • 316 次浏览 • 2016-11-23 15:06 • 来自相关话题

我在ubuntu 中运行./examples/mnish/create_mnish.sh时出现以下错误,各位知道是什么原因吗?

hailong 回复了问题 • 2 人关注 • 2 个回复 • 195 次浏览 • 2016-11-22 00:41 • 来自相关话题

21天实战caffe第87页

回复

bitwhp 发起了问题 • 1 人关注 • 0 个回复 • 319 次浏览 • 2016-11-19 15:02 • 来自相关话题

我在测试caffe安装是否正确时出现这个问题:请问有人知道是因为什么原因吗?

hailong 回复了问题 • 2 人关注 • 2 个回复 • 217 次浏览 • 2016-11-18 20:11 • 来自相关话题

卷积神经网络 网络权值初始化问题

参数调节lyy_com 回复了问题 • 2 人关注 • 2 个回复 • 183 次浏览 • 2016-11-16 15:45 • 来自相关话题

caffe 的 python 接口可以使用 多 GPU 并行吗?

回复

大规模优化nesciemus 发起了问题 • 1 人关注 • 0 个回复 • 213 次浏览 • 2016-11-15 19:16 • 来自相关话题

深层学习为什么要deep(上 and 下)

YJango 发表了文章 • 0 个评论 • 410 次浏览 • 2016-11-14 03:47 • 来自相关话题

深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

深层学习为何要“Deep”(上)
深层学习为何要"Deep"(下)(举例) 查看全部
深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

深层学习为何要“Deep”(上)
深层学习为何要"Deep"(下)(举例)

求问convert_imageset.cpp是不是只能用于转换jpg格式的数据?可以转换raw格式的数据吗?

zyore2013 回复了问题 • 2 人关注 • 1 个回复 • 207 次浏览 • 2016-11-11 13:36 • 来自相关话题

softmaxloss一直在 -ln(1.0 / num_class),验证是数据做了scale导致,这是什么原因?

回复

参数调节anan1205 发起了问题 • 1 人关注 • 0 个回复 • 187 次浏览 • 2016-11-11 11:21 • 来自相关话题

学习率更新方法

参数调节emerald 回复了问题 • 2 人关注 • 1 个回复 • 335 次浏览 • 2016-11-10 16:27 • 来自相关话题

Caffe的卷积到底是如何计算的呢?

uestc_yang 回复了问题 • 5 人关注 • 4 个回复 • 430 次浏览 • 2016-11-09 10:47 • 来自相关话题

配置python接口编译报错

卜居2016 回复了问题 • 2 人关注 • 1 个回复 • 226 次浏览 • 2016-11-03 13:40 • 来自相关话题

SSD的网络修改问题

回复

宋姚姚 发起了问题 • 2 人关注 • 0 个回复 • 287 次浏览 • 2016-10-31 15:17 • 来自相关话题

关于Weighted Approximate Ranking Pairwise loss(WARP)

回复

Banggui02 发起了问题 • 1 人关注 • 0 个回复 • 333 次浏览 • 2016-10-28 16:30 • 来自相关话题

deconv层中的kernel size和stride的疑问

回复

佛仙魔 发起了问题 • 3 人关注 • 0 个回复 • 309 次浏览 • 2016-10-21 11:08 • 来自相关话题

在caffe中卷积核是三维的还是二维的?

bonerkiller 回复了问题 • 15 人关注 • 7 个回复 • 2982 次浏览 • 2016-10-21 09:20 • 来自相关话题

在用fcn32s做图像分割的时候,loss总是-ln(1/num_output)不变,是哪一步出了问题?

参数调节tron1992 回复了问题 • 3 人关注 • 2 个回复 • 365 次浏览 • 2016-10-19 11:20 • 来自相关话题

如何理解“max-pooling is only performed for the two largest patches”,该怎么设定池化层核的尺寸??

回复

Phoenixhrx 回复了问题 • 1 人关注 • 1 个回复 • 292 次浏览 • 2016-10-18 22:07 • 来自相关话题

faster rcnn的特征图到原图区域映射问题?

南七骄傲 回复了问题 • 16 人关注 • 6 个回复 • 4334 次浏览 • 2016-10-13 12:23 • 来自相关话题

在CNN网络中roi从原图映射到feature map中的计算方法

南七骄傲 发表了文章 • 0 个评论 • 615 次浏览 • 2016-10-13 11:13 • 来自相关话题

在使用fast rcnn以及faster rcnn做检测任务的时候,涉及到从图像的roi区域到feature map中roi的映射,然后再进行roi_pooling之类的操作。
比如图像的大小是(600,800),在经过一系列的卷积以及pooling操作之后在某一个层中得到的feature map大小是(38,50),那么在原图中roi是(30,40,200,400),
在feature map中对应的roi区域应该是
roi_start_w = round(30 * spatial_scale);
roi_start_h = round(40 * spatial_scale);
roi_end_w = round(200 * spatial_scale);
roi_end_h = round(400 * spatial_scale);
其中spatial_scale的计算方式是spatial_scale=round(38/600)=round(50/800)=0.0625,所以在feature map中的roi区域[roi_start_w,roi_start_h,roi_end_w,roi_end_h]=[2,3,13,25];
具体的代码可以参见caffe中roi_pooling_layer.cpp 查看全部
在使用fast rcnn以及faster rcnn做检测任务的时候,涉及到从图像的roi区域到feature map中roi的映射,然后再进行roi_pooling之类的操作。
比如图像的大小是(600,800),在经过一系列的卷积以及pooling操作之后在某一个层中得到的feature map大小是(38,50),那么在原图中roi是(30,40,200,400),
在feature map中对应的roi区域应该是
roi_start_w = round(30 * spatial_scale);
roi_start_h = round(40 * spatial_scale);
roi_end_w = round(200 * spatial_scale);
roi_end_h = round(400 * spatial_scale);
其中spatial_scale的计算方式是spatial_scale=round(38/600)=round(50/800)=0.0625,所以在feature map中的roi区域[roi_start_w,roi_start_h,roi_end_w,roi_end_h]=[2,3,13,25];
具体的代码可以参见caffe中roi_pooling_layer.cpp