深度学习应用

深度学习应用

增加Batch Normalization层会增加运算时间吗?

深度学习理论alex68 回复了问题 • 2 人关注 • 1 个回复 • 57 次浏览 • 2 天前 • 来自相关话题

请问ssd中的“Test net output #0: detection_eval”具体是指什么呢?

目标识别ediven 回复了问题 • 2 人关注 • 2 个回复 • 1333 次浏览 • 4 天前 • 来自相关话题

pvanet训练自己的数据集生成压缩版(comp)的model的方法

目标识别caocao 回复了问题 • 3 人关注 • 1 个回复 • 1058 次浏览 • 5 天前 • 来自相关话题

ubuntu14.04+matlab+faster rcnn 用Pascal VOC2007训练的问题

回复

目标识别xuell 发起了问题 • 1 人关注 • 0 个回复 • 61 次浏览 • 6 天前 • 来自相关话题

用yolov2的cfg与weight转caffe的caffemodle与prototxt

Caffe开发使用wqvbjhc 回复了问题 • 2 人关注 • 1 个回复 • 110 次浏览 • 2017-09-13 12:18 • 来自相关话题

ubuntu14.04+caffe+matlab+cpu 运行Faster rcnn的问题

回复

目标识别xuell 发起了问题 • 1 人关注 • 0 个回复 • 56 次浏览 • 2017-09-12 18:54 • 来自相关话题

faster rcnn添加ROI_pooling_layer的问题

回复

目标识别xuell 回复了问题 • 1 人关注 • 1 个回复 • 74 次浏览 • 2017-09-12 18:39 • 来自相关话题

训练开始后loss值不变化

深度学习应用人工智能学者 回复了问题 • 7 人关注 • 5 个回复 • 1745 次浏览 • 2017-09-12 11:16 • 来自相关话题

imagenet迭代次数的问题

回复

图像分类c408550969 发起了问题 • 1 人关注 • 0 个回复 • 55 次浏览 • 2017-09-10 09:25 • 来自相关话题

imagenet数据集accuracy很低

回复

图像分类c408550969 回复了问题 • 1 人关注 • 1 个回复 • 69 次浏览 • 2017-09-09 16:51 • 来自相关话题

caffe中基于上采样的可视化方法

图像分类ciel咖啡小白 回复了问题 • 3 人关注 • 1 个回复 • 342 次浏览 • 2017-09-08 16:06 • 来自相关话题

关于图像识别test准确率很高,但是用classification进行单张图像分类识别时准确率不高的问题

深度学习应用张小椰 回复了问题 • 6 人关注 • 4 个回复 • 1142 次浏览 • 2017-09-07 21:25 • 来自相关话题

神经网络使用心得--欢迎新手借鉴,老手批评指正

图像分类mhaoyang 发表了文章 • 6 个评论 • 256 次浏览 • 2017-09-05 18:07 • 来自相关话题

我是用Caffe做6分类问题,做一种工业产品的检测。经过反复实验。总结的经验以下几条,供新手参考,也欢迎老手批评指正。大家交流。
 
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
 
个人原创,转载请注明来自本文。

1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。

2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。

3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。

4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。

5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。

6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。

总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade   网络使用技巧,老外写的。
网上能下载到。

另外,读一读lecun跟hinton的原始论文也帮助很大。 查看全部
我是用Caffe做6分类问题,做一种工业产品的检测。经过反复实验。总结的经验以下几条,供新手参考,也欢迎老手批评指正。大家交流。
 
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
 
个人原创,转载请注明来自本文。

1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。

2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。

3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。

4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。

5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。

6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。

总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade   网络使用技巧,老外写的。
网上能下载到。

另外,读一读lecun跟hinton的原始论文也帮助很大。

centerloss的github工程上提供的LFW的face_model.caffemodel是怎么得到的?

人脸识别yulian99 回复了问题 • 2 人关注 • 1 个回复 • 151 次浏览 • 2017-09-07 16:20 • 来自相关话题

faster rcnn训练问题

参数调节xuell 回复了问题 • 2 人关注 • 1 个回复 • 165 次浏览 • 2017-09-06 20:16 • 来自相关话题

用faster-rcnn跑自己的数据,最后跑demo.py的时候没有显示出图片和它的标注框

目标识别xuell 回复了问题 • 3 人关注 • 4 个回复 • 575 次浏览 • 2017-09-06 20:15 • 来自相关话题

人脸关键点定位数据集有哪些?

回复

综合问题数学爱好者26 发起了问题 • 2 人关注 • 0 个回复 • 82 次浏览 • 2017-09-05 22:49 • 来自相关话题

请问各位大神caffe有没有用于医学图像处理的例子可以供新手学习的?

综合问题爱是一道光 回复了问题 • 6 人关注 • 3 个回复 • 702 次浏览 • 2017-09-01 11:07 • 来自相关话题

faster rcnn 训练出现 loss=nan 学习率设置为0 也还是出现

综合问题fipan 回复了问题 • 3 人关注 • 2 个回复 • 1044 次浏览 • 2017-08-31 14:53 • 来自相关话题

人脸关键点标记

综合问题陶潜水 回复了问题 • 2 人关注 • 1 个回复 • 111 次浏览 • 2017-08-30 14:36 • 来自相关话题

条新动态, 点击查看
在训练的时候用移动平均(类似于momentum)的方式更新batch mean和variance,训练完毕,得到一个相对比较稳定的mean和variance,存在模型中。
测试的时候,就直接用模型中的均值和方差进行计算。
在训练的时候用移动平均(类似于momentum)的方式更新batch mean和variance,训练完毕,得到一个相对比较稳定的mean和variance,存在模型中。
测试的时候,就直接用模型中的均值和方差进行计算。
辛淼

辛淼 回答了问题 • 2017-01-18 13:34 • 6 个回复 不感兴趣

最近有什么好的目标检测的文章吗,求推荐

赞同来自:

鄙人维护的Awesome Caffe列表,欢迎补充https://github.com/MichaelXin/Awesome-Caffe
鄙人维护的Awesome Caffe列表,欢迎补充https://github.com/MichaelXin/Awesome-Caffe

bounding box regression

深度学习理论何ZhiL 回复了问题 • 63 人关注 • 10 个回复 • 12199 次浏览 • 2017-07-21 16:38 • 来自相关话题

增加Batch Normalization层会增加运算时间吗?

回复

深度学习理论alex68 回复了问题 • 2 人关注 • 1 个回复 • 57 次浏览 • 2 天前 • 来自相关话题

imagenet数据集accuracy很低

回复

图像分类c408550969 回复了问题 • 1 人关注 • 1 个回复 • 69 次浏览 • 2017-09-09 16:51 • 来自相关话题

caffe中基于上采样的可视化方法

回复

图像分类ciel咖啡小白 回复了问题 • 3 人关注 • 1 个回复 • 342 次浏览 • 2017-09-08 16:06 • 来自相关话题

centerloss的github工程上提供的LFW的face_model.caffemodel是怎么得到的?

回复

人脸识别yulian99 回复了问题 • 2 人关注 • 1 个回复 • 151 次浏览 • 2017-09-07 16:20 • 来自相关话题

请问各位大神caffe有没有用于医学图像处理的例子可以供新手学习的?

回复

综合问题爱是一道光 回复了问题 • 6 人关注 • 3 个回复 • 702 次浏览 • 2017-09-01 11:07 • 来自相关话题

LSTM的使用

回复

深度学习应用匿名用户 回复了问题 • 3 人关注 • 2 个回复 • 1042 次浏览 • 2017-08-20 17:12 • 来自相关话题

怎样用siamese训练自己的数据集?

回复

深度学习应用梦露露Haha 回复了问题 • 2 人关注 • 1 个回复 • 685 次浏览 • 2017-07-25 12:30 • 来自相关话题

用python提特征和用matlab提特征,值不一样

回复

综合问题取名字好难呀 回复了问题 • 4 人关注 • 3 个回复 • 627 次浏览 • 2017-07-25 12:14 • 来自相关话题

caffe如何实现人脸识别

回复

综合问题BaDanMu 回复了问题 • 3 人关注 • 2 个回复 • 1863 次浏览 • 2017-07-11 08:57 • 来自相关话题

怎样给简单的分类任务加大训练难度?

回复

场景分类匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 164 次浏览 • 2017-07-07 17:56 • 来自相关话题

如何使用matlab运行caffemodel?

回复

目标识别lwslove911 回复了问题 • 2 人关注 • 1 个回复 • 396 次浏览 • 2017-06-15 21:08 • 来自相关话题

SSD中的prior box疑问

回复

目标识别c408550969 回复了问题 • 3 人关注 • 2 个回复 • 746 次浏览 • 2017-06-15 09:12 • 来自相关话题

关于caffe中tripletloss的方式训练vgg网络的问题

回复

人脸识别Andybert 回复了问题 • 7 人关注 • 4 个回复 • 5577 次浏览 • 2017-06-08 15:53 • 来自相关话题

用LeNet训练好的模型识别自己的数字字符,应该在哪一层输出是哪个字符?

回复

深度学习应用lutingxiang 回复了问题 • 4 人关注 • 3 个回复 • 2092 次浏览 • 2017-06-02 11:11 • 来自相关话题

清华大学 Visual Analytics Group 提出的CNNVis该怎么用?

回复

图像分类辛淼 回复了问题 • 1 人关注 • 1 个回复 • 355 次浏览 • 2017-05-29 21:11 • 来自相关话题

LSTM的序列信息中是如何加入BOS和EOS的

回复

参数调节一路基石 发起了问题 • 1 人关注 • 0 个回复 • 282 次浏览 • 2017-05-21 16:31 • 来自相关话题

caffe中lstm使用经验,如何在全连接层后连接LSTM,输入输出Blob是什么?

回复

深度学习应用很遥远 回复了问题 • 2 人关注 • 2 个回复 • 1311 次浏览 • 2017-05-09 15:33 • 来自相关话题

caffemodel的压缩问题

回复

深度学习应用ycxia 回复了问题 • 7 人关注 • 4 个回复 • 1606 次浏览 • 2017-05-03 11:16 • 来自相关话题

Matlab版faster_rcnn出错

回复

目标识别lsh13765026940 回复了问题 • 7 人关注 • 8 个回复 • 3012 次浏览 • 2017-04-17 08:38 • 来自相关话题

神经网络使用心得--欢迎新手借鉴,老手批评指正

图像分类mhaoyang 发表了文章 • 6 个评论 • 256 次浏览 • 2017-09-05 18:07 • 来自相关话题

我是用Caffe做6分类问题,做一种工业产品的检测。经过反复实验。总结的经验以下几条,供新手参考,也欢迎老手批评指正。大家交流。
 
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
 
个人原创,转载请注明来自本文。

1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。

2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。

3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。

4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。

5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。

6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。

总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade   网络使用技巧,老外写的。
网上能下载到。

另外,读一读lecun跟hinton的原始论文也帮助很大。 查看全部
我是用Caffe做6分类问题,做一种工业产品的检测。经过反复实验。总结的经验以下几条,供新手参考,也欢迎老手批评指正。大家交流。
 
本文把神经网络的神秘面纱扯下来,新手看了之后,就有了一个完整的认识,知道怎么操作了。当然更基础的东西,要自己学习,掌握。本文仅探讨使用心得,理论方面不包括。
 
个人原创,转载请注明来自本文。

1. 分辨率,用多大的分辨率。这个取决于目标的特征,如果目标是很大的,例如汽车,房子,在图片中占据很大的比重,那么使用100*100甚至50*50的分辨率就可以了。但是如果目标很小,例如是蚂蚁,这类的。那不能太小,否则,图形特征太小,网络将无法提取形态特征。造成训练失败。我用150*200兼顾了特征的保存以及最小的图像体积,保证了计算量最小。
另外,目标就是目标,不要包含太多背景,否则也是浪费计算量。

2. 网络的选型。使用lenet还是alexnet还是googlenet.看你的问题的规模,如果你的类别不是很多,形态也非常简单,类似于手写数字识别,那么用lenet作为基础,进行调整就可以。如果形态,纹理,都比较复杂,那么lenet受限于特征提取能力,就不合适了,强行使用可能造成网络不收敛。

3. 网络精简。一般的典型网络,如上述网络,都比较庞大,例如alexnet有5层卷积,2个中间层,能分1000类,googlenet就更多了,有十几个卷积层,交叉组合,也是分1000类。而我们的分类任务可能只要分几类,或者十几类。用人家的网络就会显得杀鸡用牛刀,浪费了计算能力,可能i3 CPU足够的,你得用i7, 也就增加了成本。
因此要精简网络,说说自己的经验,alexnet5层卷积的输出节点数,96-256-384-384-256,隐含层409614096节点。
我精简到96-128-128.隐含层只一层,100个节点。分类效果跟精简之前没什么区别。而网络从200多MB降到1MB多,准确度98%, 找到了网络的极限,因为再小的网络,训练无法收敛。可能以后,再增加类别时,需要扩大一下网络。

4. 样本准备。随机一些,不同方向,不同亮度的,甚至目标的尺寸,大一点小一点,都有。要有足够的代表性。

5. 可视化,一定要使用Matlab把卷积层的中间结果输出出来,看看那些结果图是有用的,因为同一层很多特征图事重复的,那么就可以减少输出点数,再训练时,网络就不会提取那些没有用或者重复的特征了。
训练时,学习率0.001. 再缩小也没有什么效果了。

6. 网络越简单,收敛速度越快,比如我用5层卷积时,要训练到4000轮才开始收敛,而3层时,从1000轮就开始收敛。

总之在机器学习,多层卷机网络的统一理论的指导下,多多实验吧,你会发现更多的特点,这就是一门实验的学问。
另外,也推荐一本书,虽然我还没有看,但是很多人推荐,我也下载了。
Neural Networks:Tricks of the Trade   网络使用技巧,老外写的。
网上能下载到。

另外,读一读lecun跟hinton的原始论文也帮助很大。

支持最新版cudnn的faster-rcnn 欢迎fork

深度学习应用xmyqsh 发表了文章 • 1 个评论 • 601 次浏览 • 2016-11-11 18:40 • 来自相关话题

 支持最新版cudnn的faster-rcnn  欢迎fork
 
https://github.com/xmyqsh/py-faster-rcnn

 支持最新版cudnn的faster-rcnn  欢迎fork
 
https://github.com/xmyqsh/py-faster-rcnn

阿里云人工智能“看图说话”揭秘

深度学习应用phz50 发表了文章 • 0 个评论 • 548 次浏览 • 2016-09-12 12:48 • 来自相关话题

初入深度学习圈子,做点总结,上班时间先写个提纲,下班了再完善!
阿里云人工智能“看图说话”原视频(02:00 ~ 03:59) 3岁小孩可以轻松看图说话案例,计算机却很困难,听到不等于听懂、看到不等于看懂 Understand图片转为像素值,RGB(红、绿、蓝)同样标签,视角变化/大小变化/形变/遮挡/光照条件/背景干扰/类内差异Deep Learning , computer vision history ,Scale Big data analysis 发展,促进人工智能重发第2春不停改进算法,不如大数据分析,小孩不停从外界获取信息数据驱动,训练集、测试集 众包 million 图片收集以及标注识别Label,记忆形成短语(CNN、RNN、LSTM)分类 KNN,及优缺点线性分类,f = Wxi + b , W权重、b偏量损失函数 Loss function ,评价Label与真实结果接近度,多类支持向量机SVM、softmax分类器最优化,最短路径、梯度神经网络卷积神经网络(CNN) GoogleNet 有效减少权重参数个数LSTMGPU、Hadoop、Spark 并行计算计算机看图说话、计算机拥有视觉可能应用领域But 不足:无法评估艺术相关、人物情感 0~3岁 difficult | 3 ~10岁 more difficult华裔业界大牛:吴恩达(百度大脑)、周靖人(阿里人工智能)、李飞飞(斯坦福)... ...caffe | deeplearning4j 参考资料more... ... 查看全部
初入深度学习圈子,做点总结,上班时间先写个提纲,下班了再完善!
  1. 阿里云人工智能“看图说话”原视频(02:00 ~ 03:59) 
  2. 3岁小孩可以轻松看图说话案例,计算机却很困难,听到不等于听懂、看到不等于看懂 Understand
  3. 图片转为像素值,RGB(红、绿、蓝)
  4. 同样标签,视角变化/大小变化/形变/遮挡/光照条件/背景干扰/类内差异
  5. Deep Learning , computer vision history ,Scale Big data analysis 发展,促进人工智能重发第2春
  6. 不停改进算法,不如大数据分析,小孩不停从外界获取信息
  7. 数据驱动,训练集、测试集 众包 million 图片收集以及标注
  8. 识别Label,记忆形成短语(CNN、RNN、LSTM)
  9. 分类 KNN,及优缺点
  10. 线性分类,f = Wxi + b , W权重、b偏量
  11. 损失函数 Loss function ,评价Label与真实结果接近度,多类支持向量机SVM、softmax分类器
  12. 最优化,最短路径、梯度
  13. 神经网络
  14. 卷积神经网络(CNN) GoogleNet 有效减少权重参数个数
  15. LSTM
  16. GPU、Hadoop、Spark 并行计算
  17. 计算机看图说话、计算机拥有视觉可能应用领域
  18. But 不足:无法评估艺术相关、人物情感 0~3岁 difficult | 3 ~10岁 more difficult
  19. 华裔业界大牛:吴恩达(百度大脑)、周靖人(阿里人工智能)、李飞飞(斯坦福)... ...
  20. caffe | deeplearning4j 参考资料
  21. more... ...

深度学习应用相关问题