Windows7,cuda8.0,运行mnist时出现以下报错。需要修改的文件附相关截图。

回复

奋斗路上的AAA 发起了问题 • 1 人关注 • 0 个回复 • 38 次浏览 • 1 天前 • 来自相关话题

超参数的含义

回复

haddis3 发起了问题 • 1 人关注 • 0 个回复 • 35 次浏览 • 1 天前 • 来自相关话题

使用自己训练的模型测试图片时。过滤器的权值图像非常模糊且全部是彩色的。原因是?

回复

ciel咖啡小白 发起了问题 • 1 人关注 • 0 个回复 • 40 次浏览 • 2 天前 • 来自相关话题

faster-rcnn使用end2end 方式训练时输出日志中的loss、cls_loss、loss_bbox、rpn_cls_loss和rpn_loss_bbox分别是怎么计算的?

回复

棉花糖 发起了问题 • 1 人关注 • 0 个回复 • 93 次浏览 • 2017-02-16 16:39 • 来自相关话题

caffe数据层

回复

参数调节dengwu3801 发起了问题 • 1 人关注 • 0 个回复 • 167 次浏览 • 2017-01-14 16:14 • 来自相关话题

在auto encoder中为什么要使用两个损失函数?sigmoidcrossentropyloss反向传播过程中出现问题

回复

Alien9427 发起了问题 • 1 人关注 • 0 个回复 • 177 次浏览 • 2017-01-04 17:30 • 来自相关话题

fcn如何fineturn?

回复

参数调节beyondlee 发起了问题 • 1 人关注 • 0 个回复 • 129 次浏览 • 2017-01-03 16:24 • 来自相关话题

修改 不一样的显卡,在caffe中跑相同的网络,配置文件、参数、数据集完全相同,为什么训练结果相差特别多?

回复

参数调节weixing 发起了问题 • 1 人关注 • 0 个回复 • 242 次浏览 • 2016-12-30 08:19 • 来自相关话题

求一个python可视化训练caffe网络并且能绘制acc和loss层的脚本。。。

回复

参数调节爱在路上 发起了问题 • 1 人关注 • 0 个回复 • 181 次浏览 • 2016-12-28 14:59 • 来自相关话题

全卷积层的作用是什么呢?

回复

月光里的阳光ysu 发起了问题 • 4 人关注 • 0 个回复 • 207 次浏览 • 2016-12-27 10:11 • 来自相关话题

GDB调试Caffe

回复

jinghuanxiao 发起了问题 • 1 人关注 • 0 个回复 • 195 次浏览 • 2016-12-21 08:53 • 来自相关话题

VGG-Finetune时,怎么加入acc和loss层??现在只有的prob是什么??

回复

参数调节爱在路上 发起了问题 • 1 人关注 • 0 个回复 • 163 次浏览 • 2016-12-13 10:13 • 来自相关话题

finetune 不收敛

回复

参数调节ricky 发起了问题 • 1 人关注 • 0 个回复 • 241 次浏览 • 2016-12-03 23:27 • 来自相关话题

resize正方形

回复

jack85910 发起了问题 • 1 人关注 • 0 个回复 • 146 次浏览 • 2016-11-29 19:33 • 来自相关话题

connected layer的blob问题

回复

jack85910 发起了问题 • 1 人关注 • 0 个回复 • 193 次浏览 • 2016-11-28 23:58 • 来自相关话题

goolenet 跑分类任务 log日志感觉不对

回复

参数调节zhanghong2 发起了问题 • 1 人关注 • 0 个回复 • 214 次浏览 • 2016-11-25 14:31 • 来自相关话题

21天实战caffe第87页

回复

bitwhp 发起了问题 • 1 人关注 • 0 个回复 • 319 次浏览 • 2016-11-19 15:02 • 来自相关话题

caffe 的 python 接口可以使用 多 GPU 并行吗?

回复

大规模优化nesciemus 发起了问题 • 1 人关注 • 0 个回复 • 213 次浏览 • 2016-11-15 19:16 • 来自相关话题

深层学习为什么要deep(上 and 下)

YJango 发表了文章 • 0 个评论 • 410 次浏览 • 2016-11-14 03:47 • 来自相关话题

深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

深层学习为何要“Deep”(上)
深层学习为何要"Deep"(下)(举例) 查看全部
深层学习开启了人工智能的新时代。不论任何行业都害怕错过这一时代浪潮,因而大批资金和人才争相涌入。但深层学习却以“黑箱”而闻名,不仅调参难,训练难,“新型”网络结构的论文又如雨后春笋般地涌现,使得对所有结构的掌握变成了不现实。我们缺少一个对深层学习合理的认识。

深层学习为何要“Deep”(上)
深层学习为何要"Deep"(下)(举例)