如何把linux下编译好的caffe打包到hadoop上面运行?

背景是这样的
在开发环境里,我们安装了caffe,并训练了深度学习的模型。现在想把模型推到线上。但是线上环境里并没有caffe以及相关的依赖

caffe在安装过程中,会依赖一些第三方的库,比如glog,gflag,lmdb,hdf5, leveldb, opencv, atlas等等,把这些第三方的库逐一装到线上机器,实在比较麻烦。

现在想法是,把线下caffe以依赖的各种静态库,动态库,整体打包成一个standalone的东西,可以直接运行或者解压后,独立运行,基本不依赖系统里其他的库,请问有什么好的做法吗?
已邀请:

辛淼 - CaffeCN社区创始人

赞同来自: ifighting smu_wangbo

为什么不用docker

要回复问题请先登录注册