添加新层报错,如何解决啊

回复

ciel咖啡小白 发起了问题 • 1 人关注 • 0 个回复 • 81 次浏览 • 2017-09-10 10:20 • 来自相关话题

imagenet迭代次数的问题

回复

图像分类c408550969 发起了问题 • 1 人关注 • 0 个回复 • 67 次浏览 • 2017-09-10 09:25 • 来自相关话题

imagenet数据集accuracy很低

回复

图像分类c408550969 回复了问题 • 1 人关注 • 1 个回复 • 91 次浏览 • 2017-09-09 16:51 • 来自相关话题

caffe中基于上采样的可视化方法

图像分类ciel咖啡小白 回复了问题 • 3 人关注 • 1 个回复 • 357 次浏览 • 2017-09-08 16:06 • 来自相关话题

训练结果准确率很高,但是用Classification分类结果却很低

图像分类liuyi000 发表了文章 • 6 个评论 • 368 次浏览 • 2017-06-06 15:10 • 来自相关话题

      初次尝试用AlexNet训练,结果准确率90%+,以为可以马上交任务了,可是......,用Classification.exe测试时准确率让我大跌眼镜,竟然不到50%。即使蒙也不至于这么低吧?网上查了一些资料,很多人遇到这样的问题,大家也提供了很多解决方案,可都没解决。于是乎,决定花点时间彻底查清原因。这里把原因及解决方案分享给大家,避免大家和我一样花了很多时间查这个问题。
      先来说明一下我的应用背景,如和我的不一样的可能不适用。我的输入是RGB图像,分8类,请对号入座哈~~
      还有好多工作要做,直接上原因吧。训练时与用classification测试对图像的预处理方式不一样。训练时时是原图各个图通对应减去平均图像的channel,而用classification时是对平均图像merge后计算mean值,在用原图减去这个平均值。前者是平均值一个RGB图像,后者是一个值,所以就不一样啦~~~
      解决方案就是把两种测试方法在均值处理上统一即可。
     (就这样啦,没时间写的更详细一点)
       查看全部
      初次尝试用AlexNet训练,结果准确率90%+,以为可以马上交任务了,可是......,用Classification.exe测试时准确率让我大跌眼镜,竟然不到50%。即使蒙也不至于这么低吧?网上查了一些资料,很多人遇到这样的问题,大家也提供了很多解决方案,可都没解决。于是乎,决定花点时间彻底查清原因。这里把原因及解决方案分享给大家,避免大家和我一样花了很多时间查这个问题。
      先来说明一下我的应用背景,如和我的不一样的可能不适用。我的输入是RGB图像,分8类,请对号入座哈~~
      还有好多工作要做,直接上原因吧。训练时与用classification测试对图像的预处理方式不一样。训练时时是原图各个图通对应减去平均图像的channel,而用classification时是对平均图像merge后计算mean值,在用原图减去这个平均值。前者是平均值一个RGB图像,后者是一个值,所以就不一样啦~~~
      解决方案就是把两种测试方法在均值处理上统一即可。
     (就这样啦,没时间写的更详细一点)
      

关于图像识别test准确率很高,但是用classification进行单张图像分类识别时准确率不高的问题

张小椰 回复了问题 • 6 人关注 • 4 个回复 • 1165 次浏览 • 2017-09-07 21:25 • 来自相关话题

神经网络使用心得--欢迎新手借鉴,老手批评指正

图像分类mhaoyang 发表了文章 • 6 个评论 • 293 次浏览 • 2017-09-05 18:07 • 来自相关话题

我是用Caffe做6分类问题,做一种工业产品的检测。经过反复实验。总结的经验以下几条,供新手参考,也欢迎老手批评指正。大家交流。
 
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
 
个人原创,转载请注明来自本文。

1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。

2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。

3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。

4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。

5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。

6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。

总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade   网络使用技巧,老外写的。
网上能下载到。

另外,读一读lecun跟hinton的原始论文也帮助很大。 查看全部
我是用Caffe做6分类问题,做一种工业产品的检测。经过反复实验。总结的经验以下几条,供新手参考,也欢迎老手批评指正。大家交流。
 
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
 
个人原创,转载请注明来自本文。

1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。

2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。

3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。

4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。

5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。

6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。

总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade   网络使用技巧,老外写的。
网上能下载到。

另外,读一读lecun跟hinton的原始论文也帮助很大。

centerloss的github工程上提供的LFW的face_model.caffemodel是怎么得到的?

人脸识别yulian99 回复了问题 • 2 人关注 • 1 个回复 • 163 次浏览 • 2017-09-07 16:20 • 来自相关话题

用faster-rcnn跑自己的数据,最后跑demo.py的时候没有显示出图片和它的标注框

目标识别xuell 回复了问题 • 3 人关注 • 4 个回复 • 588 次浏览 • 2017-09-06 20:15 • 来自相关话题

关于SSD,YOLO2等目标检测数据迁移的问题

目标识别陶潜水 回复了问题 • 1 人关注 • 1 个回复 • 178 次浏览 • 2017-09-04 11:00 • 来自相关话题

在windows下生成的lmdb文件夹能在linux下使用吗?

目标识别陶潜水 回复了问题 • 2 人关注 • 1 个回复 • 119 次浏览 • 2017-09-01 08:55 • 来自相关话题

SSD编译问题

陶潜水 回复了问题 • 3 人关注 • 2 个回复 • 196 次浏览 • 2017-08-30 14:49 • 来自相关话题

caffe,faster-rcnn训练自己数据时出现错误,请问怎么解决

回复

语义图像分割风会停息 发起了问题 • 1 人关注 • 0 个回复 • 110 次浏览 • 2017-08-30 10:26 • 来自相关话题

Check failed: target_blobs.size() == source_layer.blobs_size() (5 vs. 3) Inc

回复

图像分类hukongtao 发起了问题 • 1 人关注 • 0 个回复 • 110 次浏览 • 2017-08-29 10:30 • 来自相关话题

网络能否做成只识别目标?---有一定难度

目标识别陶潜水 回复了问题 • 2 人关注 • 3 个回复 • 190 次浏览 • 2017-08-28 14:46 • 来自相关话题

Check failed: status == CUBLAS STATUS_SUCCESS (11 vs. 0) CUBLAS STATUS MAPPING_ERROR

回复

语义图像分割hukongtao 发起了问题 • 1 人关注 • 0 个回复 • 111 次浏览 • 2017-08-28 10:05 • 来自相关话题

faster_rcnn对显卡要求?

目标识别CatherineW 回复了问题 • 2 人关注 • 1 个回复 • 139 次浏览 • 2017-08-25 09:36 • 来自相关话题

SSD priorbox 中,defaut box 数量是如何计算得到的?

陶潜水 回复了问题 • 2 人关注 • 1 个回复 • 150 次浏览 • 2017-08-22 16:38 • 来自相关话题

在用caffe进行image caption的项目,到最后评价集的参考资料太少,求大神指点一二?

回复

图像描述捞捞加油 发起了问题 • 1 人关注 • 0 个回复 • 118 次浏览 • 2017-08-22 16:25 • 来自相关话题

caffe分类图片,训练结果的test accuracy与用C++接口的单张图片分类结果严重不符

图像分类yulian99 回复了问题 • 3 人关注 • 2 个回复 • 209 次浏览 • 2017-08-22 09:58 • 来自相关话题