卷积神经网络的结构是如何设定的?

回复

bea_tree 发起了问题 • 1 人关注 • 0 个回复 • 387 次浏览 • 2016-06-13 07:31 • 来自相关话题

不同模型的区别

xuesen 回复了问题 • 6 人关注 • 2 个回复 • 1721 次浏览 • 2016-06-11 23:22 • 来自相关话题

在caffe中怎么实现cnn+svm呀,有示例代码吗?

大规模优化xuesen 回复了问题 • 6 人关注 • 3 个回复 • 2076 次浏览 • 2016-06-11 23:17 • 来自相关话题

caffe LRN层的作用?

雨叶清霜 回复了问题 • 4 人关注 • 1 个回复 • 1120 次浏览 • 2016-06-02 16:55 • 来自相关话题

样本数量严重不均衡时,会导致什么后果

参数调节wait_alone 回复了问题 • 4 人关注 • 2 个回复 • 636 次浏览 • 2016-06-02 15:25 • 来自相关话题

convolution层kernel_size:1怎么解释

参数调节naisubing 回复了问题 • 6 人关注 • 6 个回复 • 850 次浏览 • 2016-06-01 22:02 • 来自相关话题

谷歌的一些Inception Model?

ricky 回复了问题 • 18 人关注 • 3 个回复 • 6543 次浏览 • 2016-05-28 10:04 • 来自相关话题

siamese网络 训练过程中test loss增加的问题

参数调节naisubing 回复了问题 • 2 人关注 • 1 个回复 • 1543 次浏览 • 2016-05-20 14:36 • 来自相关话题

谁能给我讲讲网络退化是指什么,其原因是啥造成的呢?

Machine 回复了问题 • 2 人关注 • 2 个回复 • 452 次浏览 • 2016-05-19 11:32 • 来自相关话题

siamses网络 feat层必须输出是2吗?以及contrastive loss中参数margin选取问题

回复

参数调节匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 805 次浏览 • 2016-05-18 21:21 • 来自相关话题

关于 single crop evaluation 的疑问

星空下的巫师 回复了问题 • 2 人关注 • 1 个回复 • 1017 次浏览 • 2016-05-12 23:08 • 来自相关话题

caffe 中卷积层 参数 group 的作用

参数调节李扬 回复了问题 • 4 人关注 • 3 个回复 • 2975 次浏览 • 2016-05-10 21:33 • 来自相关话题

SigmoidCrossEntropyLossLayer 误差计算问题

今天可以2 回复了问题 • 2 人关注 • 1 个回复 • 1267 次浏览 • 2016-05-10 12:33 • 来自相关话题

自己的数据,模型loss不收敛,识别率上不去,请问如何调参?

参数调节Bruce_batman 回复了问题 • 2 人关注 • 1 个回复 • 1963 次浏览 • 2016-05-10 04:44 • 来自相关话题

基础学习率和学习率衰减是怎么影响网络的

参数调节Bruce_batman 回复了问题 • 4 人关注 • 1 个回复 • 835 次浏览 • 2016-05-10 04:40 • 来自相关话题

请删帖~~~~~

回复

佛仙魔 发起了问题 • 1 人关注 • 0 个回复 • 395 次浏览 • 2016-05-09 11:31 • 来自相关话题

如何理解矩阵

YJango 发表了文章 • 3 个评论 • 913 次浏览 • 2016-05-03 17:07 • 来自相关话题

空间:能够容纳运动是作为空间的基本条件。线性代数第一个引入的概念便是向量空间:一个描述状态的空间(注意要和用于描述位置的空间区分开来)

维度:互不相关的因素的个数是一个向量空间的维度。维度永远是用于描述空间的,而不是描述一个具体的向量。人们常说的n维向量实际是指n维向量空间内的向量,由于向量没有指定任何实质的值,所以可以是任何值,因此其真正描述的依旧是一个空间。并且,选择的维度是一个站在观察者角度,希望在某个向量空间下可以尽可能的描述一个物体的状态而选择的,并非被描述者真实处在的空间。

矩阵:矩阵不同于一个向量,其描述的概念绝大多数情况都是具体的数值,是用于描述向量空间内的状态和动因的媒介。需要用两种观察角度去思考其包含的信息:静态和动态。
静态:静态包含两个信息。其一,包含多个在其所在维度空间下的向量,可以理解为 坐标; 其二,是坐标系。动态:用一个矩阵乘以另一个量的实质是通过线性变换改变另一个量的状态,可以理解为:外力。

矩阵乘法:当矩阵用来做乘法的时候,其包含的静态信息中的坐标信息又可以以两种视角来理解,若干个向量和若干组权重。当把矩阵内的每一行作为一个向量时,那么做乘法时,前一个矩阵装载着向量信息,后一个矩阵装载着权重信息;若把矩阵内的每一列作为向量看待的话,那么做乘法时,前一个矩阵装载着权重信息,后一个矩阵装载着向量信息。矩阵乘法其实可以理解为对向量空间内的某种状态产生了外力,改变了其原来的状态。
矩阵乘以矩阵:是将具体的若干个向量,以相同的方式进行线性变换(通过乘以权重并相加获得新的状态)。矩阵乘以向量:当没有给向量确定任何具体的数值时,一个矩阵乘以一个向量的式子实际是在描述从矩阵的(行or列)向量空间转换到(列or行)的向量空间。

矩阵转置:交换向量和权重的角色;或理解为矩阵的行、列空间的互换。

先简单概括到这里。真正想要理解的话,需要结合很多例子说明。 查看全部
空间:能够容纳运动是作为空间的基本条件。线性代数第一个引入的概念便是向量空间:一个描述状态的空间(注意要和用于描述位置的空间区分开来)

维度:互不相关的因素的个数是一个向量空间的维度。维度永远是用于描述空间的,而不是描述一个具体的向量。人们常说的n维向量实际是指n维向量空间内的向量,由于向量没有指定任何实质的值,所以可以是任何值,因此其真正描述的依旧是一个空间。并且,选择的维度是一个站在观察者角度,希望在某个向量空间下可以尽可能的描述一个物体的状态而选择的,并非被描述者真实处在的空间。

矩阵:矩阵不同于一个向量,其描述的概念绝大多数情况都是具体的数值,是用于描述向量空间内的状态和动因的媒介。需要用两种观察角度去思考其包含的信息:静态和动态。
  1. 静态:静态包含两个信息。其一,包含多个在其所在维度空间下的向量,可以理解为 坐标; 其二,是坐标系。
  2. 动态:用一个矩阵乘以另一个量的实质是通过线性变换改变另一个量的状态,可以理解为:外力。


矩阵乘法:当矩阵用来做乘法的时候,其包含的静态信息中的坐标信息又可以以两种视角来理解,若干个向量和若干组权重。当把矩阵内的每一行作为一个向量时,那么做乘法时,前一个矩阵装载着向量信息,后一个矩阵装载着权重信息;若把矩阵内的每一列作为向量看待的话,那么做乘法时,前一个矩阵装载着权重信息,后一个矩阵装载着向量信息。矩阵乘法其实可以理解为对向量空间内的某种状态产生了外力,改变了其原来的状态。
  1. 矩阵乘以矩阵:是将具体的若干个向量,以相同的方式进行线性变换(通过乘以权重并相加获得新的状态)。
  2. 矩阵乘以向量:当没有给向量确定任何具体的数值时,一个矩阵乘以一个向量的式子实际是在描述从矩阵的(行or列)向量空间转换到(列or行)的向量空间。


矩阵转置:交换向量和权重的角色;或理解为矩阵的行、列空间的互换。

先简单概括到这里。真正想要理解的话,需要结合很多例子说明。

为什么loss的下降过程是阶段性的?

参数调节YJango 回复了问题 • 5 人关注 • 4 个回复 • 1727 次浏览 • 2016-04-30 22:49 • 来自相关话题

loss大约在0.2-0.4,acc已经得到了不错的结果,该怎么办?

回复

参数调节jckzzu 发起了问题 • 2 人关注 • 0 个回复 • 517 次浏览 • 2016-04-27 15:21 • 来自相关话题