难道不是参数越少,模型越小,测试时占用的显存资源会更少么?

joshua_1988 回复了问题 • 3 人关注 • 1 个回复 • 787 次浏览 • 2017-07-26 09:14 • 来自相关话题

loss不收敛,一直是8到9之间徘徊

asdfee 回复了问题 • 6 人关注 • 4 个回复 • 8605 次浏览 • 2017-07-10 21:59 • 来自相关话题

请问在进行分类任务的过程中有哪些可以拉开类间差距的办法?

回复

匿名用户 发起了问题 • 1 人关注 • 0 个回复 • 534 次浏览 • 2017-07-07 17:49 • 来自相关话题

用vgg跑imagenet做预训练模型,泥萌的batch都是设置多少得呢

c408550969 回复了问题 • 4 人关注 • 3 个回复 • 5689 次浏览 • 2017-07-03 21:08 • 来自相关话题

类不平衡问题,能否通过调整最后的阈值来解决

alex68 回复了问题 • 1 人关注 • 1 个回复 • 932 次浏览 • 2017-06-29 20:20 • 来自相关话题

两个关于extract_features的问题

回复

Ma_Jane 发起了问题 • 1 人关注 • 0 个回复 • 609 次浏览 • 2017-06-26 19:00 • 来自相关话题

caffe solver中的test_iter设置过大或者过小会带来什么样的结果?

andrewsu90116 回复了问题 • 3 人关注 • 1 个回复 • 751 次浏览 • 2017-06-23 16:23 • 来自相关话题

样本的数量增多导致训练迭代到2.5万左右后立刻衰减为0

alex68 回复了问题 • 1 人关注 • 1 个回复 • 593 次浏览 • 2017-06-07 13:46 • 来自相关话题

py-faster-rcnn如何恢复训练,没找到solverstate

回复

深度学习思考者 发起了问题 • 2 人关注 • 0 个回复 • 1022 次浏览 • 2017-06-01 15:07 • 来自相关话题

二分类问题用什么模型?

popper0912 回复了问题 • 5 人关注 • 2 个回复 • 2603 次浏览 • 2017-05-31 10:05 • 来自相关话题

solver.prototxt参数

很遥远 发表了文章 • 1 个评论 • 569 次浏览 • 2017-05-23 19:37 • 来自相关话题

####参数设置###################

1. ####训练样本###

总共:121368个
batch_szie:256
将所有样本处理完一次(称为一代,即epoch)需要:121368/256=475 次迭代才能完成
所以这里将test_interval设置为475,即处理完一次所有的训练数据后,才去进行测试。所以这个数要大于等于475.
如果想训练100代,则最大迭代次数为47500;


2. ####测试样本###
同理,如果有1000个测试样本,batch_size为25,那么需要40次才能完整的测试一次。 所以test_iter为40;这个数要大于等于40.

3. ####学习率###
学习率变化规律我们设置为随着迭代次数的增加,慢慢变低。总共迭代47500次,我们将变化5次,所以stepsize设置为47500/5=9500,即每迭代9500次,我们就降低一次学习率。

 


####参数含义#############

net: "examples/AAA/train_val.prototxt"   #训练或者测试配置文件
test_iter: 40   #完成一次测试需要的迭代次数
test_interval: 475  #测试间隔
base_lr: 0.01  #基础学习率
lr_policy: "step"  #学习率变化规律
gamma: 0.1  #学习率变化指数
stepsize: 9500  #学习率变化频率
display: 20  #屏幕显示间隔
max_iter: 47500 #最大迭代次数
momentum: 0.9 #动量
weight_decay: 0.0005 #权重衰减
snapshot: 5000 #保存模型间隔
snapshot_prefix: "models/A1/caffenet_train" #保存模型的前缀
solver_mode: GPU #是否使用GPU



stepsize不能太小,如果太小会导致学习率再后来越来越小,达不到充分收敛的效果。 查看全部
####参数设置###################

1. ####训练样本###

总共:121368个
batch_szie:256
将所有样本处理完一次(称为一代,即epoch)需要:121368/256=475 次迭代才能完成
所以这里将test_interval设置为475,即处理完一次所有的训练数据后,才去进行测试。所以这个数要大于等于475.
如果想训练100代,则最大迭代次数为47500;


2. ####测试样本###
同理,如果有1000个测试样本,batch_size为25,那么需要40次才能完整的测试一次。 所以test_iter为40;这个数要大于等于40.

3. ####学习率###
学习率变化规律我们设置为随着迭代次数的增加,慢慢变低。总共迭代47500次,我们将变化5次,所以stepsize设置为47500/5=9500,即每迭代9500次,我们就降低一次学习率。

 


####参数含义#############

net: "examples/AAA/train_val.prototxt"   #训练或者测试配置文件
test_iter: 40   #完成一次测试需要的迭代次数
test_interval: 475  #测试间隔
base_lr: 0.01  #基础学习率
lr_policy: "step"  #学习率变化规律
gamma: 0.1  #学习率变化指数
stepsize: 9500  #学习率变化频率
display: 20  #屏幕显示间隔
max_iter: 47500 #最大迭代次数
momentum: 0.9 #动量
weight_decay: 0.0005 #权重衰减
snapshot: 5000 #保存模型间隔
snapshot_prefix: "models/A1/caffenet_train" #保存模型的前缀
solver_mode: GPU #是否使用GPU



stepsize不能太小,如果太小会导致学习率再后来越来越小,达不到充分收敛的效果。

添加precision-recall-loss层报错

ciel咖啡小白 回复了问题 • 2 人关注 • 2 个回复 • 627 次浏览 • 2017-05-21 17:00 • 来自相关话题

LSTM的序列信息中是如何加入BOS和EOS的

回复

一路基石 发起了问题 • 1 人关注 • 0 个回复 • 798 次浏览 • 2017-05-21 16:31 • 来自相关话题

caffe中mirror(镜像)参数的作用

Irving 回复了问题 • 5 人关注 • 6 个回复 • 5919 次浏览 • 2017-05-07 15:09 • 来自相关话题

在一个已有网络的末端再加一层全连接层,该如何微调?

Evence 回复了问题 • 4 人关注 • 2 个回复 • 2163 次浏览 • 2017-05-06 09:35 • 来自相关话题

在用fcn32s做图像分割的时候,loss总是-ln(1/num_output)不变,是哪一步出了问题?

feynman 回复了问题 • 4 人关注 • 3 个回复 • 2167 次浏览 • 2017-04-20 10:16 • 来自相关话题

goolenet 跑分类任务 log日志感觉不对

深度学习思考者 回复了问题 • 1 人关注 • 1 个回复 • 1037 次浏览 • 2017-04-12 15:19 • 来自相关话题

Check failed: error == cudaSuccess (9 vs. 0) invalid configuration argument

phoenixbai 回复了问题 • 5 人关注 • 3 个回复 • 4211 次浏览 • 2017-04-10 23:56 • 来自相关话题

用Python写了个层,使用的时候caffe log把输出的打他全都打印出来了.怎么改让他只输出loss就可以呢?

回复

筱黎2124135913 回复了问题 • 0 人关注 • 1 个回复 • 557 次浏览 • 2017-04-10 17:48 • 来自相关话题

感觉是Net的析构函数的问题,求详细说一下问题所在:

回复

刘备他die 发起了问题 • 1 人关注 • 0 个回复 • 2143 次浏览 • 2017-04-10 08:47 • 来自相关话题