在使用caffe做目标检测与识别时,如何直接计算出mAP值。

Caffe开发使用grubby 回复了问题 • 2 人关注 • 2 个回复 • 122 次浏览 • 1 天前 • 来自相关话题

LRN和 batch norm层有什么区别?可以同时用这两个层吗?

深度学习理论alex68 回复了问题 • 4 人关注 • 1 个回复 • 57 次浏览 • 2 天前 • 来自相关话题

通过脚本来实现caffe的前向传播以达到提速的效果?

Caffe开发使用wqvbjhc 回复了问题 • 2 人关注 • 2 个回复 • 56 次浏览 • 1 天前 • 来自相关话题

我用的ubuntu16 ,caffe可不可以同时安装多个版本呀,具体怎样操作,求解答,谢谢

综合问题alex68 回复了问题 • 3 人关注 • 2 个回复 • 89 次浏览 • 2 天前 • 来自相关话题

请教CAFFE里面每一类的准确率是怎么输出的....

框架开发使用B-Kalasiky 回复了问题 • 1 人关注 • 1 个回复 • 89 次浏览 • 4 天前 • 来自相关话题

在caffe中添加maxout层,make runtest出错

回复

框架开发使用匿名用户 回复了问题 • 1 人关注 • 1 个回复 • 48 次浏览 • 4 天前 • 来自相关话题

caffe windows获取训练日志

综合问题B-Kalasiky 回复了问题 • 1 人关注 • 1 个回复 • 74 次浏览 • 4 天前 • 来自相关话题

Build Caffe: undefined reference to `google::protobuf::internal:

Caffe开发使用muyouhang 回复了问题 • 2 人关注 • 1 个回复 • 53 次浏览 • 2 天前 • 来自相关话题

自己训练数据时,acc一会高一会低,一直在10%一下,loss也是一会高一会低,,3以上

框架开发使用很遥远 回复了问题 • 2 人关注 • 2 个回复 • 70 次浏览 • 4 天前 • 来自相关话题

我在caffe下用自己的生成的模型做classfication,出现问题求教

Caffe开发使用d_shan 回复了问题 • 2 人关注 • 1 个回复 • 69 次浏览 • 5 天前 • 来自相关话题

同一个caffe训练好的模型隔了几天test得到的Accuracy差距很大

综合问题B-Kalasiky 回复了问题 • 0 人关注 • 1 个回复 • 48 次浏览 • 4 天前 • 来自相关话题

anaconda启动jupyter notebook时提示"Connection to localhost failed."请问如何处理

回复

综合问题dapsjj 发起了问题 • 1 人关注 • 0 个回复 • 43 次浏览 • 5 天前 • 来自相关话题

caffe下自己模型的搭建

Caffe开发使用waiting 发表了文章 • 1 个评论 • 37 次浏览 • 1 天前 • 来自相关话题

论文中有这么一段描述:
Due to the small input size, no spatial pooling or downsampling is performed.
Starting from the first layer, the input image is convolved with 96 filters of size
9 × 9, resulting in a map of size 16 × 16 (to avoid boundary effects) and 96
channels. The 96 channels are then pooled with maxout in group of size g = 2,
resulting in 48 channels.




其中The 96 channels are then pooled with maxout in group of size g = 2,
resulting in 48 channels.对应虚线圆圈中的图本人比较困惑,请问要怎么实现呢?是下图的方法实现吗??





 
 
 
 
 
 
 
 
 
 
 
 
  查看全部
论文中有这么一段描述:
Due to the small input size, no spatial pooling or downsampling is performed.
Starting from the first layer, the input image is convolved with 96 filters of size
9 × 9, resulting in a map of size 16 × 16 (to avoid boundary effects) and 96
channels. The 96 channels are then pooled with maxout in group of size g = 2,
resulting in 48 channels.
图片1.jpg

其中The 96 channels are then pooled with maxout in group of size g = 2,
resulting in 48 channels.对应虚线圆圈中的图本人比较困惑,请问要怎么实现呢?是下图的方法实现吗??
P70527-182534.jpg


 
 
 
 
 
 
 
 
 
 
 
 
 

在Ubuntu14.04下跑FCN模型时,出现以下问题,是由于内存不足引起的吗?还是说其他原因。

回复

语义图像分割NAVY_navy 发起了问题 • 1 人关注 • 0 个回复 • 39 次浏览 • 1 天前 • 来自相关话题

Build Caffe: #error This file was generated by an older version of protoc which is

回复

Caffe开发使用JenifferYingyiWu 发起了问题 • 1 人关注 • 0 个回复 • 42 次浏览 • 3 天前 • 来自相关话题

cnn重建ReconNet网络loss到达5左右就不下降了,为啥?

回复

综合问题callback 发起了问题 • 1 人关注 • 0 个回复 • 46 次浏览 • 4 天前 • 来自相关话题

将自己的数据转成caffe的leveldb或者lmdb格式的数据在进行训练时都有问题

回复

Caffe开发使用awfxx01 发起了问题 • 1 人关注 • 0 个回复 • 58 次浏览 • 5 天前 • 来自相关话题

solver.prototxt参数

参数调节很遥远 发表了文章 • 1 个评论 • 38 次浏览 • 5 天前 • 来自相关话题

####参数设置###################

1. ####训练样本###

总共:121368个
batch_szie:256
将所有样本处理完一次(称为一代,即epoch)需要:121368/256=475 次迭代才能完成
所以这里将test_interval设置为475,即处理完一次所有的训练数据后,才去进行测试。所以这个数要大于等于475.
如果想训练100代,则最大迭代次数为47500;


2. ####测试样本###
同理,如果有1000个测试样本,batch_size为25,那么需要40次才能完整的测试一次。 所以test_iter为40;这个数要大于等于40.

3. ####学习率###
学习率变化规律我们设置为随着迭代次数的增加,慢慢变低。总共迭代47500次,我们将变化5次,所以stepsize设置为47500/5=9500,即每迭代9500次,我们就降低一次学习率。

 


####参数含义#############

net: "examples/AAA/train_val.prototxt"   #训练或者测试配置文件
test_iter: 40   #完成一次测试需要的迭代次数
test_interval: 475  #测试间隔
base_lr: 0.01  #基础学习率
lr_policy: "step"  #学习率变化规律
gamma: 0.1  #学习率变化指数
stepsize: 9500  #学习率变化频率
display: 20  #屏幕显示间隔
max_iter: 47500 #最大迭代次数
momentum: 0.9 #动量
weight_decay: 0.0005 #权重衰减
snapshot: 5000 #保存模型间隔
snapshot_prefix: "models/A1/caffenet_train" #保存模型的前缀
solver_mode: GPU #是否使用GPU



stepsize不能太小,如果太小会导致学习率再后来越来越小,达不到充分收敛的效果。 查看全部
####参数设置###################

1. ####训练样本###

总共:121368个
batch_szie:256
将所有样本处理完一次(称为一代,即epoch)需要:121368/256=475 次迭代才能完成
所以这里将test_interval设置为475,即处理完一次所有的训练数据后,才去进行测试。所以这个数要大于等于475.
如果想训练100代,则最大迭代次数为47500;


2. ####测试样本###
同理,如果有1000个测试样本,batch_size为25,那么需要40次才能完整的测试一次。 所以test_iter为40;这个数要大于等于40.

3. ####学习率###
学习率变化规律我们设置为随着迭代次数的增加,慢慢变低。总共迭代47500次,我们将变化5次,所以stepsize设置为47500/5=9500,即每迭代9500次,我们就降低一次学习率。

 


####参数含义#############

net: "examples/AAA/train_val.prototxt"   #训练或者测试配置文件
test_iter: 40   #完成一次测试需要的迭代次数
test_interval: 475  #测试间隔
base_lr: 0.01  #基础学习率
lr_policy: "step"  #学习率变化规律
gamma: 0.1  #学习率变化指数
stepsize: 9500  #学习率变化频率
display: 20  #屏幕显示间隔
max_iter: 47500 #最大迭代次数
momentum: 0.9 #动量
weight_decay: 0.0005 #权重衰减
snapshot: 5000 #保存模型间隔
snapshot_prefix: "models/A1/caffenet_train" #保存模型的前缀
solver_mode: GPU #是否使用GPU



stepsize不能太小,如果太小会导致学习率再后来越来越小,达不到充分收敛的效果。

清华大学 Visual Analytics Group 提出的CNNVis该怎么用?

回复

图像分类wshdkf 发起了问题 • 1 人关注 • 0 个回复 • 18 次浏览 • 8 小时前 • 来自相关话题