
深度学习应用
max-in-out和sigmoid focal loss可以同时使用吗?
回复综合问题 • 陶潜水 发起了问题 • 1 人关注 • 0 个回复 • 1934 次浏览 • 2019-07-22 14:20
深度学习GPU显存不够,是否可以多路GPU进行串行运算?
框架开发使用 • alex68 回复了问题 • 2 人关注 • 1 个回复 • 4118 次浏览 • 2018-11-20 10:29
询问用于人脸识别的东方人数据集
人脸识别 • chaoxiefy 回复了问题 • 5 人关注 • 2 个回复 • 5207 次浏览 • 2018-11-01 14:12
有人有imagenet的小型数据集吗?
综合问题 • chaoxiefy 回复了问题 • 2 人关注 • 1 个回复 • 8838 次浏览 • 2018-11-01 14:09
深度学习极简视频教学
TensorFlow开发会用 • YJango 发表了文章 • 0 个评论 • 1222 次浏览 • 2018-10-04 11:06
faster-rcnn 最后出来的效果不佳,很多bbox都是错的而且严重重合,请问是什么问题?
深度学习应用 • 风吹月朗 回复了问题 • 6 人关注 • 3 个回复 • 4963 次浏览 • 2018-09-02 11:17
faster rcnn训练问题
参数调节 • 风吹月朗 回复了问题 • 4 人关注 • 2 个回复 • 3727 次浏览 • 2018-09-02 11:04
mtcnn关键点问题
人脸识别 • 匿名用户 回复了问题 • 3 人关注 • 2 个回复 • 6364 次浏览 • 2018-08-30 09:25
关于CNN参数调节train_loss和test_loss的问题
参数调节 • alex68 回复了问题 • 2 人关注 • 1 个回复 • 11311 次浏览 • 2018-05-20 12:46
深度学习从基础到进阶_GAN视频教程免费下载地址
人脸识别 • 想学坏的小孩 回复了问题 • 16 人关注 • 10 个回复 • 4000 次浏览 • 2018-05-17 15:28
能否直接使用深度学习的特征?
深度学习应用 • mhaoyang 回复了问题 • 2 人关注 • 2 个回复 • 2229 次浏览 • 2018-05-10 16:37
有没有基于深度学习的建模方法?
深度学习理论 • mhaoyang 回复了问题 • 2 人关注 • 2 个回复 • 2599 次浏览 • 2018-05-09 22:07
深度学习要经常做样本很麻烦,有没有什么简便方法 ?
深度学习应用 • 陶潜水 回复了问题 • 3 人关注 • 2 个回复 • 2592 次浏览 • 2018-05-08 14:25
怎么理解mtcnn训练的输入及输出
深度学习应用 • beichen2012 回复了问题 • 2 人关注 • 1 个回复 • 6062 次浏览 • 2018-05-03 15:26
SSD训练出现错误:blocking_queue.cpp:50] Data layer prefetch queue empty
目标识别 • leedewdew 回复了问题 • 4 人关注 • 6 个回复 • 5798 次浏览 • 2018-05-01 11:47
caffe怎么同时输入多张连续图片进行训练
综合问题 • chris 回复了问题 • 5 人关注 • 2 个回复 • 5413 次浏览 • 2018-04-22 20:35
Caffe-SSD 训练 widerface 一直无法学习的原因?
回复综合问题 • yulizzz 发起了问题 • 1 人关注 • 0 个回复 • 3000 次浏览 • 2018-04-14 11:23
caffe 训练模型好了一个模型,精度也很高,但是分类结果却很差
深度学习应用 • 王老头 回复了问题 • 10 人关注 • 10 个回复 • 9538 次浏览 • 2018-04-09 11:45
测试的时候,就直接用模型中的均值和方差进行计算。
测试的时候,就直接用模型中的均值和方差进行计算。
bounding box regression
深度学习理论 • 何ZhiL 回复了问题 • 72 人关注 • 10 个回复 • 49236 次浏览 • 2017-07-21 16:38
caffe怎么处理视频中的图像分类问题啊 我的怎么一直出错呢?
回复图像分类 • PangDeGui 回复了问题 • 2 人关注 • 1 个回复 • 1671 次浏览 • 2018-03-21 13:04
对森林路径 左转 右转 和前进 三个方向的分类,如何提高准确度啊?
回复图像分类 • PangDeGui 回复了问题 • 2 人关注 • 1 个回复 • 1436 次浏览 • 2018-03-16 10:03
请问SSD算法在一个工程下运行两个模型怎么做啊 望指点
回复深度学习理论 • linyigreat 回复了问题 • 1 人关注 • 1 个回复 • 2358 次浏览 • 2018-01-17 11:07
faster rcnn添加一块网络结构,训练完后原本的不变的那一部分模型进行画框测试时结果准确率改变
回复参数调节 • w51001y 回复了问题 • 2 人关注 • 1 个回复 • 2413 次浏览 • 2017-12-04 20:33
语义图像分割,如何用自己的数据训练FCN,请大牛指点
回复语义图像分割 • jiongnima 回复了问题 • 7 人关注 • 4 个回复 • 4458 次浏览 • 2017-11-16 20:40
Faster R-CNN如何与ResNet50搭配检测?
回复深度学习应用 • 数学爱好者26 回复了问题 • 3 人关注 • 1 个回复 • 5757 次浏览 • 2017-11-07 08:16
batch-normalization算法导致的算法不收敛问题
回复人脸识别 • yuchiwang 回复了问题 • 14 人关注 • 5 个回复 • 23879 次浏览 • 2017-10-17 11:52
深度学习极简视频教学
TensorFlow开发会用 • YJango 发表了文章 • 0 个评论 • 1222 次浏览 • 2018-10-04 11:06
神经网络使用心得--欢迎新手借鉴,老手批评指正
图像分类 • mhaoyang 发表了文章 • 7 个评论 • 3341 次浏览 • 2017-09-05 18:07
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
个人原创,转载请注明来自本文。
1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。
2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。
3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。
4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。
5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。
6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。
总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade 网络使用技巧,老外写的。
网上能下载到。
另外,读一读lecun跟hinton的原始论文也帮助很大。 查看全部
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
个人原创,转载请注明来自本文。
1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。
2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。
3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。
4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。
5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。
6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。
总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade 网络使用技巧,老外写的。
网上能下载到。
另外,读一读lecun跟hinton的原始论文也帮助很大。
支持最新版cudnn的faster-rcnn 欢迎fork
深度学习应用 • xmyqsh 发表了文章 • 1 个评论 • 1537 次浏览 • 2016-11-11 18:40
https://github.com/xmyqsh/py-faster-rcnn
阿里云人工智能“看图说话”揭秘
深度学习应用 • phz50 发表了文章 • 0 个评论 • 1962 次浏览 • 2016-09-12 12:48
阿里云人工智能“看图说话”原视频(02:00 ~ 03:59) 3岁小孩可以轻松看图说话案例,计算机却很困难,听到不等于听懂、看到不等于看懂 Understand图片转为像素值,RGB(红、绿、蓝)同样标签,视角变化/大小变化/形变/遮挡/光照条件/背景干扰/类内差异Deep Learning , computer vision history ,Scale Big data analysis 发展,促进人工智能重发第2春不停改进算法,不如大数据分析,小孩不停从外界获取信息数据驱动,训练集、测试集 众包 million 图片收集以及标注识别Label,记忆形成短语(CNN、RNN、LSTM)分类 KNN,及优缺点线性分类,f = Wxi + b , W权重、b偏量损失函数 Loss function ,评价Label与真实结果接近度,多类支持向量机SVM、softmax分类器最优化,最短路径、梯度神经网络卷积神经网络(CNN) GoogleNet 有效减少权重参数个数LSTMGPU、Hadoop、Spark 并行计算计算机看图说话、计算机拥有视觉可能应用领域But 不足:无法评估艺术相关、人物情感 0~3岁 difficult | 3 ~10岁 more difficult华裔业界大牛:吴恩达(百度大脑)、周靖人(阿里人工智能)、李飞飞(斯坦福)... ...caffe | deeplearning4j 参考资料more... ... 查看全部
- 阿里云人工智能“看图说话”原视频(02:00 ~ 03:59)
- 3岁小孩可以轻松看图说话案例,计算机却很困难,听到不等于听懂、看到不等于看懂 Understand
- 图片转为像素值,RGB(红、绿、蓝)
- 同样标签,视角变化/大小变化/形变/遮挡/光照条件/背景干扰/类内差异
- Deep Learning , computer vision history ,Scale Big data analysis 发展,促进人工智能重发第2春
- 不停改进算法,不如大数据分析,小孩不停从外界获取信息
- 数据驱动,训练集、测试集 众包 million 图片收集以及标注
- 识别Label,记忆形成短语(CNN、RNN、LSTM)
- 分类 KNN,及优缺点
- 线性分类,f = Wxi + b , W权重、b偏量
- 损失函数 Loss function ,评价Label与真实结果接近度,多类支持向量机SVM、softmax分类器
- 最优化,最短路径、梯度
- 神经网络
- 卷积神经网络(CNN) GoogleNet 有效减少权重参数个数
- LSTM
- GPU、Hadoop、Spark 并行计算
- 计算机看图说话、计算机拥有视觉可能应用领域
- But 不足:无法评估艺术相关、人物情感 0~3岁 difficult | 3 ~10岁 more difficult
- 华裔业界大牛:吴恩达(百度大脑)、周靖人(阿里人工智能)、李飞飞(斯坦福)... ...
- caffe | deeplearning4j 参考资料
- more... ...