咖啡豆不圆

咖啡豆不圆

me&me

威望 : 57752 积分 : 240 赞同 : 3 感谢 : 0

擅长话题

更多 »回复

0

可以参考src/caffe/util/io.cpp代码,用ReadProtoFromBinaryFile把model读进来,再WriteProtoToTextFile

2

把输入数据在h那个维度上面slice了,分成3个,然后写三遍网络,最后再concat

0

没有人回答,自己想明白一点就回答一点吧,deepid2论文中给出了一个lamda权值,表示分类信号和验证信号的权值,在训练里应该就是loss_weight来表示,论文里这个值最优是0.05 正在用这个值训练,还在然并卵的阶段

0

个人觉得,能够调的参数主要就是学习率了,如果是finetuning学习率一定要小,如果是完全新训练,要配合数据的规模,从0.01开始试验,有时候base_lr太小力度不够。然后可以调的就是学习率下降的方式了,就是lr_policy,一般用inv step。 其...

1

是的,weight_Filler的type就是初始化的随机算法

更多 »发问

1

3102 次浏览  • 1 个关注   • 2016-04-07

发问

回复

文章

最新动态

详细资料

本站成就:

威望: 赞同: 感谢:

最后活跃:
2017-03-21 12:06
擅长话题:
框架使用 1   0
更多 » 关注 4

刘昕_ICT XMU-陈日伟 ruirui_ICT caffe

更多 » 0 人关注
关注 话题
主页访问量 : 2497 次访问