登录注册   忘记密码

在图像识别这一块,目前有没有可以移植到嵌入式设备的深度学习算法?

冰蒂斯 | 2017/8/28 17:08:21

一直是在caffe框架下做的相应的深度学习的算法研究。之前大致的了解了caffe的在嵌入式的应用需要nvidia,另外的自动控制不大清楚其应用,查找这方面资料也很少,所以想在这里问一下。之前tensorflow出来的时候也说多平台,因为没有open source,就没关注了。目前在图像这一块的深度学习网络有没有可以在GPU上训练出model,然后移植到诸如arm处理器这一类设备上的?


  • 宋呆皮  |   2017/8/29 10:12:34

    有的。关键的问题是设备性能和模型大小之间的平衡,以及移动平台天生的一些限制:比如没有脐带电源以及S2机关的情况下,某移动终端只能跑五分钟。  


    从软件上,caffe和我最近在玩的caffe2都可以跨平台地编译(注意,不一定需要使用GPU哦),tensorflow也准备逐渐提供更完整的跨平台能力,mxnet也提供了ARM上运行的方案,所以可以想见,软件支持上将来不会有太大的问题。  从计算能力上说,现在的嵌入式平台其实已经不错了。抛开raspberry pi这样着眼于低成本hobbyist的平台不说,目前的手机都是多核高主频的,计算能力完全没有问题。像jetson TK1和TX1这样的平台就更不用说,比如说TX1可以以200fps的高速跑AlexNet,而且功耗只有15瓦。我刚开始玩deepnet那会儿,Caffe加K20在台式机跑AlexNet大概是500fps。  


    总体而言,我觉得嵌入式平台上的机器学习会给很多应用打开更大的想象空间。举个例子,我去年在Google主推mobile deep learning,一个目前已经推出的应用是谷歌翻译软件里面的自动文字识别和翻译:这些小型的神经网络可以达到传统算法所无法企及的准确率,相信将来会有更大,更有意思的应用出来,具体的我就不好说了。  

    各位认真评论的兄台难道没有意识到,我写这一坨纯粹是为了抖S2机关的机灵么。。。


  • Dr.Z  |   2017/8/30 9:56:03

    难点我认为不在算法移植。移动端不用做training,主要是要做propagating, 所以问题应该集中在移动端能不能放下并且跑得动很大的network。关于缩小DNN 大小并且保持performance的方法,建议去看看Microsoft 做speech recognition 的大牛Jinyu Li 的一些列paper,应该会很有启发。